KR20130036511A - Method for validation of object boundaries and system of thereof, method for detection of object - Google Patents

Method for validation of object boundaries and system of thereof, method for detection of object Download PDF

Info

Publication number
KR20130036511A
KR20130036511A KR1020110100629A KR20110100629A KR20130036511A KR 20130036511 A KR20130036511 A KR 20130036511A KR 1020110100629 A KR1020110100629 A KR 1020110100629A KR 20110100629 A KR20110100629 A KR 20110100629A KR 20130036511 A KR20130036511 A KR 20130036511A
Authority
KR
South Korea
Prior art keywords
value
image
validity
symmetry
extracted
Prior art date
Application number
KR1020110100629A
Other languages
Korean (ko)
Other versions
KR101274741B1 (en
Inventor
홍광석
김동주
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020110100629A priority Critical patent/KR101274741B1/en
Publication of KR20130036511A publication Critical patent/KR20130036511A/en
Application granted granted Critical
Publication of KR101274741B1 publication Critical patent/KR101274741B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method for determining validation of an object area, a device thereof, and an object extraction method thereof are provided to determine the validation of the object area based on a symmetry property, thereby efficiently determining an object with the symmetry property. CONSTITUTION: A validation determination device receives an image, which includes an object, through a photographing device(S201). The validation determination device automatically detects an object area from the image(S202). When a symmetry value for the extracted object is smaller than a predetermined first threshold value, the validation determination device determines that extraction of the object is valid and removes an area excluding the object area(S204-S206). [Reference numerals] (AA) Start; (BB,DD) No; (CC,EE) Yes; (FF) End; (S201) Obtaining an image using a photographing device; (S202) Automatically detecting an object area; (S203) Rotating an image; (S204) Calculating a symmetry value(R); (S205) R < Threshold value 1; (S206) Removing an area except for an object; (S207) R < Threshold value 2; (S208) Designating a part of the object/entire area; (S209) Requesting the re-photography of an input image;

Description

객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법{METHOD FOR VALIDATION OF OBJECT BOUNDARIES AND SYSTEM OF THEREOF, METHOD FOR DETECTION OF OBJECT}METHOD FOR VALIDATION OF OBJECT BOUNDARIES AND SYSTEM OF THEREOF, METHOD FOR DETECTION OF OBJECT}

본 발명은 컴퓨터, 휴대용 단말기 및 전자 기기의 촬영 장치를 이용하여 획득한 영상을 입력받아 객체를 추출하는 방법에 관한 것이다.The present invention relates to a method of extracting an object by receiving an image obtained by using a photographing device of a computer, a portable terminal, and an electronic device.

영상으로부터 객체를 인식하는 기술은 영상 처리나 패턴 인식, 컴퓨터 비전과 신경망 같은 다양한 분야에 걸쳐서 활발히 연구되고 있고, 상업적, 법적으로 수많은 응용분야를 가지고 있다. 최근, PDA나 휴대폰 등과 같은 모바일 기기에 내장된 카메라를 이용하여 영상을 획득할 수 있으며, 모바일 기기의 사용이 증대됨에 따라 사용자의 편의를 위해 모바일 기기를 이용한 객체 인식에 대한 요구가 증대되고 있는 실정이다.The technology of recognizing objects from images has been actively researched in various fields such as image processing, pattern recognition, computer vision and neural networks, and has numerous application fields commercially and legally. Recently, an image may be acquired by using a camera embedded in a mobile device such as a PDA or a mobile phone, and as the use of the mobile device increases, the demand for object recognition using a mobile device for the user's convenience is increasing. to be.

컴퓨터 비전에서의 객체 인식이란, 한 영상과 모델 데이터베이스가 주어졌을 때, 영상 내의 객체와 가장 유사한 모델을 데이터베이스에서 검색해 내는 일련의 과정을 말한다. 그러나, 동일한 객체라 하더라도 각각의 영상에서는 객체의 크기, 방향, 위치, 포즈 등이 다르게 나타날 수 있고, 또한 한 영상 내에 여러 개의 객체가 포함되어 있거나 아니면 해당 객체가 다른 객체에 의해 가려져 그 일부분만 볼 수 있는 경우도 있기 때문에 이런 모든 조건에서도 강인하게 동작하는 인식 기법에 대한 연구가 많이 진행되어 왔다.Object recognition in computer vision is a process of retrieving a model from a database that most closely resembles an object in an image, given a database of images and models. However, even in the same object, the size, direction, position, and pose of the object may be different in each image. Also, if a single image includes multiple objects or the object is hidden by other objects, only a part of them may be viewed. In some cases, many researches have been conducted on recognition techniques that work robustly under all these conditions.

[관련기술문헌][Related Technical Literature]

1. 영상에서 관심 영역 지정 및 윤곽선 영상을 이용한 객체 인식 방법 및 장치(특허출원번호: 제10-2009-0109727호) 1. Method and apparatus for object recognition using region of interest in image and contour image (Patent Application No. 10-2009-0109727)

2. 디지털 영상 처리기에서 꽃을 인식하는 장치 및 방법 (특허출원번호: 제10-2008-0134964호)2. Apparatus and method for recognizing flowers in digital image processor (Patent Application No .: 10-2008-0134964)

개시된 기술이 이루고자 하는 기술적 과제는 영상에서 객체를 추출하고 추출된 객체의 대칭성을 기초로 하여 객체의 유효성을 판단하는 방법 및 장치를 제공하는데 있다. 또한, 영상을 전처리하고, 영상의 배경과 객체의 경계점으로부터 객체 영역을 자동으로 추출하는 방법 및 장치를 제공하는 데 있다. An object of the present invention is to provide a method and apparatus for extracting an object from an image and determining the validity of the object based on the symmetry of the extracted object. Another object of the present invention is to provide a method and apparatus for preprocessing an image and automatically extracting an object region from an image background and an object boundary point.

상기의 기술적 과제를 이루기 위해 개시된 기술의 제1측면은, 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 방법에 있어서, 객체를 포함하는 영상을 입력받는 단계; 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 단계; 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 단계; 및 상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되,상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 단계를 포함하는 객체 영역의 유효성 판단 방법을 제공한다.According to a first aspect of the disclosed technology to achieve the above technical problem, a method of determining the validity of the extracted object region by extracting an object from an image, the method comprising: receiving an image including an object; Extracting the object by detecting an outline of the object in the image; Calculating a symmetry measure value for the extracted object; And determining the validity of the extracted object based on the symmetry measure value, and determining that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value. Provide a method of judgment.

상기의 기술적 과제를 이루기 위해 개시된 기술의 제2측면은, 영상에서 객체의 윤곽선을 검출하여 상기 객체를 추출하는 방법에 있어서, 상기 영상을 전처리하여 상기 객체 이외의 배경 영역에서 엣지(edge) 성분을 감소시키는 단계; 상기 영상에서 상기 객체를 통과하게끔 수직선 및 수평선을 생성하는 단계; 상기 수직선 및 상기 수평선이 상기 객체와 상기 배경과의 경계와 만나는 점 네 개를 선택하는 단계; 및 상기 각각의 네 점들로부터 상기 객체의 경계를 트래킹 하여 윤곽선을 검출하는 단계를 포함하는 객체를 추출 방법.을 제공한다.The second aspect of the disclosed technology to achieve the above technical problem, in the method of extracting the object by detecting the contour of the object in the image, pre-processing the image to remove the edge (edge) component in the background region other than the object Reducing; Generating vertical and horizontal lines through the object in the image; Selecting four points where the vertical line and the horizontal line meet a boundary between the object and the background; And detecting an outline by tracking a boundary of the object from each of the four points.

상기의 기술적 과제를 이루기 위해 개시된 기술의 제3측면은, 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 장치에 있어서, 객체를 포함하는 영상을 입력받는 영상 입력부; 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 객체 추출부; 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 대칭성 척도 값 계산부; 및 상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되, 상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 유효성 판단부를 포함하는 객체 영역의 유효성 판단 장치를 제공한다.According to a third aspect of the disclosed technology, an apparatus for extracting an object from an image and determining the validity of the extracted object region may include: an image input unit configured to receive an image including an object; An object extracting unit extracting the object by detecting an outline of the object in the image; A symmetry measure value calculator for calculating a symmetry measure value for the extracted object; And a validity determination unit that determines the validity of the extracted object based on the symmetry measure value, and determines that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value. Provide an apparatus for determining validity.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technique may have the following effects. It is to be understood, however, that the scope of the disclosed technology is not to be construed as limited thereby, as it is not meant to imply that a particular embodiment should include all of the following effects or only the following effects.

일 실시예에 따른 객체 영역의 유효성 판단 방법은 대칭성 기초로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 인식되어 객체가 비 대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공하여, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있다. The method of determining the validity of the object region according to an embodiment determines the validity of the object region based on the symmetry, and thus has an advantage of efficiently determining an object having symmetry. In addition, when only a partial region of the object is recognized and the object is extracted asymmetrically, the user may draw and select an unextracted region to reduce the process of re-evaluating the validity of the entire object. .

일 실시예에 따른 객체 추출방법은 객체와 배경의 경계점 4점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로 기존 추출 방법에 비해 신속하게 객체를 추출을 수행할 수 있는 장점이 있다. The object extraction method according to an embodiment extracts an object using an IS (Intelligent Scissor) algorithm at each of four boundary points of the object and the background, so that the object extraction method can be performed faster than the existing extraction method.

도 1은 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 장치를 보여주는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 단계를 보여주는 순서도이다.
도 3은 입력된 영상으로부터 객체가 추출된 모습을 보여주는 도면이다.
도 4는 본 발명의 일 실시예에 따라 대칭성 척도 값을 계산하기 위해 객체의 중심축과 중심축으로부터 객체의 윤곽선까지의 거리를 나타낸 도면이다.
도 5는 객체의 중심축으로부터 객체의 윤곽선까지의 거리 정보를 이용하여 계산된 대칭성 척도 값의 분포를 보여주는 그래프이다.
도 6은 본 발명의 일 실시예에 따라 추출된 객체의 윤곽선과, 객체 의외의 영역을 제거한 영상을 나타내는 도면이다.
도 7은 객체를 지나는 수평선 및 상기 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다.
도 8은 본 발명의 일 실시예에 따라 전처리가 수행된 영상에서 객체를 지나는 수평선 및 상기 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다.
1 is a block diagram illustrating an apparatus for determining validity of an object region according to an embodiment of the present invention.
2 is a flowchart illustrating a step of determining the validity of an object region according to an embodiment of the present invention.
3 is a diagram illustrating an object extracted from an input image.
4 is a diagram illustrating a center axis of an object and a distance from the center axis to an outline of the object in order to calculate a symmetry measure value according to an embodiment of the present invention.
5 is a graph showing a distribution of symmetry scale values calculated using distance information from an object's central axis to an object's contour.
FIG. 6 is a diagram illustrating an image of contours extracted from an object and an image from which an area other than the object is removed according to an embodiment of the present invention.
7 is a graph showing a horizontal line passing through an object and a local cost (LC) value of the horizontal line.
FIG. 8 is a graph illustrating a horizontal line passing through an object and a local cost (LC) value of the horizontal line in an image in which preprocessing is performed according to an embodiment of the present invention.

개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of the disclosed technique is merely an example for structural or functional explanation and the scope of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, the embodiments may be variously modified and may have various forms, and thus the scope of the disclosed technology should be understood to include equivalents capable of realizing the technical idea.

한편, 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present invention will be understood as follows.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "comprise" or "have" refer to a feature, number, step, operation, component, part or implementation thereof. It is to be understood that the combination is intended to be present, but not to exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.

각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Each step may occur differently from the stated order unless the context clearly dictates the specific order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the disclosed technology belongs, unless otherwise defined. Terms defined in commonly used dictionaries should be interpreted to be consistent with meaning in the context of the relevant art and can not be construed as having ideal or overly formal meaning unless expressly defined in the present application.

도 1은 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 장치를 보여주는 블록도이다. 도 1을 참조하면, 객체의 유효성 판단 장치(100)는 영상 입력부(110), 객체 추출부(120), 대칭성 척도 값 계산부(130) 및 유효성 판단부(140)를 포함한다.1 is a block diagram illustrating an apparatus for determining validity of an object region according to an embodiment of the present invention. Referring to FIG. 1, the apparatus 100 for determining the validity of an object includes an image input unit 110, an object extractor 120, a symmetry measure value calculator 130, and a validity determiner 140.

영상 입력부(110)는 카메라 또는 이미지 센서와 같은 촬영 소자를 포함하며, 촬영에 의해 객체를 포함한 영상을 입력받는다. 여기서 객체는 촬영의 목적에 해당되는 피사체이며, 실시예에 따라 다양한 피사체가 객체로서 입력 될 수 있으나, 본 발명은 꽃의 영상으로부터 꽃의 영역 추출하는 데 특화된 장점을 가지므로 이하의 설명에서는 영상은 꽃을 포함하는 영상으로, 객체는 꽃을 지칭하는 것으로 설명하도록 한다. 영상 입력부(110)는 실시간 촬영에 의해 영상을 입력받으나 실시예에 따라, 기 촬영된 영상을 저장하는 DB(미도시)로부터 영상 데이터를 전송받아 영상을 입력받을 수 있다. The image input unit 110 includes a photographing element such as a camera or an image sensor, and receives an image including an object by photographing. Herein, the object is a subject corresponding to a photographing purpose, and various subjects may be input as objects according to embodiments. However, since the present invention has an advantage of extracting a region of a flower from an image of a flower, an image is described in the following description. As an image including a flower, an object is described as referring to a flower. The image input unit 110 receives an image by real-time shooting, but according to an embodiment, the image input unit 110 may receive image data from a DB (not shown) that stores the previously photographed image and receive the image.

객체 추출부(120)는 영상 입력부(110)로부터 입력된 영상을 이용하여 객체의 윤곽선을 검출함으로써 추출한다. 윤곽선의 검출은 영상에서 객체를 통과하게끔 수직선 및 수평선을 생성하고, 수직선 및 수평선이 객체와 배경의 경계점과 만나는 네 개의 점을 선택한다. 이어서, 네 개의 점 각각으로부터 객체의 경계면을 트래킹 하여 윤곽선을 검출한다. The object extractor 120 extracts the contour of the object by using the image input from the image input unit 110. The detection of the contour creates vertical and horizontal lines through the object in the image, and selects four points where the vertical and horizontal lines meet the boundary points of the object and the background. The contour is then detected by tracking the boundary of the object from each of the four points.

윤곽선의 검출을 상세히 설명하면, 일 실시예에 따라 객체 추출부(120)는 입력받은 영상을 전처리하여 영상에서 객체 이외의 배경에 해당되는 부분의 엣지(edge) 성분을 감소시킨다. 여기서, 엣지(edge) 성분은 영상을 이루는 픽셀의 색 성분 값(R,G,B)이 급격하게 바뀌는 부분을 의미하며, 로컬 코스트 값(Local Coast, 이하 LC값)에 의해 계산된다. LC값의 계산은 도 7의 설명에서 설명하도록 한다. 실시예에 의하면 엣지(edge) 성분의 감소는 적응적 필터링 알고리즘을 사용하여 수행한다. 전처리에 의해 엣지(edge) 성분을 감소시키는 이유는, 영상에서 객체의 경계면 의외의 부분, 즉 배경에 해당되는 부분에 존재하는 엣지(edge) 성분에 의해 객체가 잘못 추출되는 것을 방지하기 위함이다.Detecting the contour in detail, according to an embodiment, the object extractor 120 reduces the edge component of a portion of the image corresponding to the background other than the object by preprocessing the input image. Here, the edge component means a portion in which the color component values R, G, and B of the pixels constituting the image change rapidly, and are calculated by a local coast value (LC value). The calculation of the LC value will be described in the description of FIG. 7. In an embodiment, the reduction of edge components is performed using an adaptive filtering algorithm. The reason for reducing the edge component by preprocessing is to prevent an object from being incorrectly extracted by an edge component existing in an area other than the boundary of the object in the image, that is, a part corresponding to the background.

여기서 엣지(edge) 성분을 용이하게 설명하기 위해 도 7 및 도 8을 참조하도록 한다. Herein, reference will be made to FIGS. 7 and 8 to easily describe the edge component.

도 7 (a)는 영상을 지나는 수평선을 보여주고, 도 7 (b)는 수평선을 이루는 픽셀의 LC값을 보여주는 그래프이다. LC값은 수학식 1에 의해 표현된다. FIG. 7 (a) shows a horizontal line passing through the image, and FIG. 7 (b) shows a LC value of pixels forming the horizontal line. The LC value is represented by equation (1).

Figure pat00001
Figure pat00001

수학식 1에서, G는 픽셀의 그레디언트(Gradient) 크기 값, MG는 전체 픽셀에서 최대 크기를 갖는 그레디언트 값(G)을 의미한다. 이때 G 값은 수학식 2에 의해 계산되고, In Equation 1, G denotes a gradient size value of a pixel, and MG denotes a gradient value G having a maximum size in all pixels. In this case, the G value is calculated by Equation 2,

Figure pat00002
Figure pat00002

Figure pat00003
은 컬러영상에서 Red성분의 Gradient,
Figure pat00004
Figure pat00005
은 각각 Red성분의 수평 및 수직성분의 Gradient 값, I는 픽셀값을 의미하며 수학식 3에 의해 계산된다.
Figure pat00003
Gradient of Red component in color image,
Figure pat00004
and
Figure pat00005
Are the gradient values of the horizontal and vertical components of the red component, respectively, and I is the pixel value, and is calculated by Equation 3.

Figure pat00006
Figure pat00006

도 7 (b)에 의하면 LC값은 영상과 객체의 경계면 외에도 배경영역 내지 객체의 내부 영역에서도 급격한 값의 변화(엣지(edge) 성분)를 보이므로, 배경과 객체의 경계 검출에 방해 요소로 작용한다. According to FIG. 7 (b), since the LC value shows a sharp change in value (edge component) in the background region or the internal region of the object in addition to the boundary between the image and the object, it acts as an obstacle to detecting the boundary between the background and the object. do.

따라서, 배경과 객체의 경계 검출을 용이하게 하기 위하여 적응적 필터링 알고리즘을 사용하여 배경의 엣지(edge) 성분을 감소시킨다.Therefore, an adaptive filtering algorithm is used to reduce the edge component of the background to facilitate detection of the boundary between the background and the object.

도 8은 본 발명의 일 실시예에 따라 전처리가 수행된 영상에서 객체를 지나는 수평선 및 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다.FIG. 8 is a graph showing a local cost (LC) value of a horizontal line and a horizontal line passing through an object in an image in which preprocessing is performed according to an embodiment of the present invention.

도 8 (a)는 수학식 4에 의한 적응적 필터링 알고리즘을 적용하여 전처리를 수행한 영상을 보여준다. FIG. 8 (a) shows an image of pre-processing by applying an adaptive filtering algorithm according to Equation 4. FIG.

Figure pat00007
Figure pat00007

수학식 4에서

Figure pat00008
는 필터링 후의 Gradient 값을 의미하여,
Figure pat00009
는 입력 Gradient 값,
Figure pat00010
은 m에 따라 정해지는 상수 값을 의미한다. 적응적 필터링 알고리즘을 적용하여 도 8 (a)에서 도시하는 바와 같이 배경의 엣지 성분들이 제거되었음을 알 수 있다.In equation (4)
Figure pat00008
Means the gradient value after filtering,
Figure pat00009
Is the input gradient value,
Figure pat00010
Is a constant value determined by m. It can be seen that the edge components of the background have been removed by applying the adaptive filtering algorithm as shown in FIG.

도 8 (b)는 적응적 필터링 알고리즘의 전처리가 수행된 영상에서 객체를 지나는 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다. 배경에서 엣지 성분들이 제거되어 배경과 객체의 경계를 명확하게 알 수 있다. 8 (b) is a graph showing a local cost (LC) value of a horizontal line passing through an object in an image in which the preprocessing of the adaptive filtering algorithm is performed. Edge components are removed from the background to clearly see the boundary between the background and the object.

도 8은 객체를 지나는 수평선에 의해 배경과 객체의 경계점 두 점이 선택되는 것을 보여주고 있으나, 객체 추출부(120)는 같은 방법으로 객체를 지나는 수직선을 생성하여 배경과 객체의 경계점 두 점을 선택하여 배경과 객체의 경계점 모두 네 점을 선택한다. 실시예에 의하면 각 점의 선택은 수평선 및 수직선에서 LC값이 최소인 점을 선택하는 것으로 하나, LC 값은 계산식에 따라 최대 값, 최소 값이 바뀔 수 있으므로 각 점은 LC 값이 급격하게 변하는 지점을 경계점으로 선택할 수 있다. FIG. 8 shows that two boundary points of the background and the object are selected by a horizontal line passing through the object, but the object extractor 120 generates two vertical lines passing through the object in the same manner to select two boundary points of the background and the object. Select four points for both the background and the boundary of the object. According to the embodiment, the selection of each point is to select the point with the minimum LC value on the horizontal line and the vertical line.However, the LC value may change the maximum value and the minimum value according to the formula, so each point is a point where the LC value changes rapidly. Can be selected as the boundary point.

이어서 객체 추출부(120)는 네 개의 점 각각으로부터 객체의 경계면을 트래킹(Tracking) 하여 윤곽선을 검출한다. 이때, 트래킹은 IS(Intelligent Scissor) 알고리즘에 의해 수행된다. IS알고리즘 수행에 의해 네 개의 점을 연결하는 선이 서로 연결되어 윤곽선이 검출되어 객체가 추출된다. 이때 객체가 추출된다고 함은, 객체의 윤곽선이 폐 루프를 형성하여 객체가 영상의 배경으로부터 분리된 영역을 가지게 되는 것을 말한다. 한편, IS 알고리즘은 수학식 5에 기초하여 수행된다. The object extractor 120 then tracks the boundary of the object from each of the four points to detect the contour. At this time, tracking is performed by an intelligent scissor (IS) algorithm. By performing the IS algorithm, the lines connecting the four points are connected to each other, the contour is detected, and the object is extracted. In this case, the extraction of the object means that the outline of the object forms a closed loop so that the object has an area separated from the background of the image. On the other hand, the IS algorithm is performed based on the equation (5).

Figure pat00011
Figure pat00011

여기서

Figure pat00012
는 비용함수로서 포인트 p로부터 다음 포인트 q를 찾는데 사용되는 값이다.
Figure pat00013
는 canny edge의 결과 값
Figure pat00014
와 그레디언트(Gradient) 값
Figure pat00015
의 가중치
Figure pat00016
의 결합으로 계산된다.
Figure pat00017
값을 이용하여 영상의 두 점 사이의 최소 비용을 가지는 최적 경로의 연산은 Two-Dimensional Dynamic Programming 알고리즘에 의하여 수행된다. here
Figure pat00012
Is a cost function that is used to find the next point q from point p.
Figure pat00013
Is the result of the canny edge
Figure pat00014
And gradient values
Figure pat00015
Weight of
Figure pat00016
Calculated by the combination of.
Figure pat00017
The calculation of the optimal path with the minimum cost between two points in the image using the value is performed by two-dimensional dynamic programming algorithm.

다시 도 1을 참조하면, 대칭성 척도 값 계산부(130)는 추출된 객체에 대하여 대칭성 척도 값을 계산한다. 한편, 영상 입력부(110)에 의해 입력받은 영상은 객체의 수평을 확인하고 대칭성 척도 값 계산을 유효하게 하기 위하여 실시예에 따라 객체의 유효성 판단 장치(100)는 영상 회전부(미도시)를 더 포함할 수 있다. Referring back to FIG. 1, the symmetry measure value calculator 130 calculates a symmetry measure value for the extracted object. On the other hand, the image received by the image input unit 110 in order to check the horizontal level of the object and to validate the symmetry scale value according to the embodiment the validity determination apparatus 100 of the object further includes an image rotating unit (not shown) can do.

일 실시예에 의하면, 영상 회전부(미도시)는 추출된 객체의 중심점으로부터 객체의 윤곽선(객체와 배경과의 경계선)까지의 최대 거리 값을 가지는 좌표를 연결하는 직선과 영상의 세로축 또는 가로축과의 각도를 계산하여 계산된 각도만큼 영상을 회전시킨다. 다른 실시예에 의하면 영상 회전부(미도시)는 추출된 객체만을 회전시킬 수도 있다. According to an embodiment, the image rotating unit (not shown) may have a straight line connecting a coordinate having a maximum distance value from the center point of the extracted object to the contour of the object (the boundary between the object and the background) and the vertical or horizontal axis of the image. Rotate the image by the calculated angle by calculating the angle. According to another embodiment, the image rotating unit (not shown) may rotate only the extracted object.

일 실시예에 의하면, 대칭성 척도 값의 계산은 추출된 객체의 중심축으로부터 객체의 윤곽선까지의 정규화된 거리 차이 값의 평균에 의해 계산된다. According to one embodiment, the calculation of the symmetry measure value is calculated by the average of the normalized distance difference values from the center axis of the extracted object to the contour of the object.

거리 값의 평균을 명확히 설명하기 위해 도 4를 참조하도록 한다.Reference is made to FIG. 4 to clarify the average of the distance values.

도 4는 객체의 중심축과 중심축으로부터 객체의 윤곽선까지의 거리를 측정하기 위한 도면이다. 가로축 W는 가로방향(width)를 의미하고 세로축 H는 높이(height)를 뜻한다. 도 4(a)의 d1과 d2는 객체의 세로축을 기준으로 하여 객체의 윤곽선까지의 거리를 나타낸다. 4 is a diagram for measuring a distance from the central axis and the central axis of the object to the contour of the object. The horizontal axis W means width and the vertical axis H means height. D1 and d2 of FIG. 4 (a) show distances to the contour of the object based on the vertical axis of the object.

수학식 6은 세로축을 기준으로 대칭성 척도 값을 계산하는 식이다. Equation 6 calculates a symmetry measure value based on the vertical axis.

Figure pat00018
Figure pat00018

수학식 7은 가로축을 기준으로 대칭성 척도 값을 계산하는 식이다. Equation 7 calculates a symmetry scale value based on the horizontal axis.

Figure pat00019
Figure pat00019

이때, 가로축 W는 가로방향(width)를 의미하고 세로축 H는 높이(height)를 뜻한다. 도 4(b)의 d3과 d4는(미도시) 객체의 가로축을 기준으로 하여 객체의 윤곽선까지의 거리를 나타낸다. In this case, the horizontal axis W means width and the vertical axis H means height. In FIG. 4B, d3 and d4 (not shown) represent distances to the contour of the object based on the horizontal axis of the object.

유효성 판단부(140)는 대칭성 척도 값 VR 내지 HR을 기초로 하여 추출된 객체의 유효성을 판단한다. 일 실시예에 의하면 객체가 수직축을 기준으로 하여 좌우 대칭만 가지는 경우 유효성 판단부(140)는 VR값을 기준으로 추출된 객체의 유효성을 판단한다. 객체가 좌우 대칭성을 가질 경우 객체 추출부(120)에서 객체가 정확히 추출되었다면 추출된 객체에서 d1 및 d2는 정규한 분포를 가지게 된다. 따라서, 유효성 판단부(140)는 VR값을 미리 정해진 임계값 (제1 임계값)과 비교하여 제1 임계값보다 VR값이 작게 측정된 경우 상기 객체의 추출을 유효한 것으로 판단한다. The validity determination unit 140 determines the validity of the extracted object based on the symmetry scale values VR to HR. According to an embodiment, when the object has only left and right symmetry based on the vertical axis, the validity determining unit 140 determines the validity of the extracted object based on the VR value. When the object has left and right symmetry, if the object is extracted correctly by the object extractor 120, d1 and d2 have a normal distribution in the extracted object. Therefore, the validity determination unit 140 compares the VR value with a predetermined threshold value (first threshold value) and determines that the extraction of the object is valid when the VR value is smaller than the first threshold value.

유효성 판단을 명확하게 설명하게 위해 도 3 및 도 5를 참조한다.Reference is made to FIGS. 3 and 5 to clarify the validity judgment.

도 3 (b)는 객체의 일부 영역만이 추출되었기 때문에 VR값이 제1 임계값보다 크게 계산된다. 따라서 유효성 판단부(140)는 도 3 (b)의 객체 추출을 유효하지 않다고 판단한다. 도 3 (a)는 객체의 영역에 맞추어 객체가 잘 추출되었기 때문에 VR값이 제1 임계값보다 작게 계산된다. 따라서 유효성 판단부(140)는 도 3 (a)의 객체 추출을 유효하다고 판단한다.In FIG. 3B, since only a partial region of the object is extracted, the VR value is calculated to be larger than the first threshold value. Therefore, the validity determination unit 140 determines that the object extraction of FIG. 3B is not valid. 3 (a), the VR value is calculated to be smaller than the first threshold value because the object is well extracted according to the area of the object. Therefore, the validity determination unit 140 determines that the object extraction of FIG. 3 (a) is valid.

도 5는 객체의 중심축으로부터 객체의 윤곽선까지의 거리 정보를 이용하여 계산된 대칭성 척도 값의 분포를 보여주는 그래프이다. 영상으로부터 객체 영역이 유효하게 추출된 경우 파란 선으로 표시된 것과 같이 d1 및 d2(혹은 d3 및 d4)는 대칭된 분포를 보인다. 그러나 객체 영역이 유효하게 추출되지 않은 경우 붉은 선으로 표시된 바와 같이 거리 값이 큰 분포를 보인다. 5 is a graph showing a distribution of symmetry scale values calculated using distance information from an object's central axis to an object's contour. When the object region is effectively extracted from the image, as shown by the blue line, d1 and d2 (or d3 and d4) show a symmetrical distribution. However, if the object area is not extracted effectively, the distance value shows a large distribution as indicated by the red line.

실시예에 의하면 객체가 좌우 대칭을 가지는 경우 유효성의 판단은 VR값을 기초로하여 수행될 수 있으나, 객체가 상하 대칭을 가지는 경우 유효성의 판단은 HR값을 기초로하여 수행될 수 있다. 또한 객체가 상하, 좌우 모두 대칭성을 가지는 경우 VR값 및 HR값의 평균값에 의해 객체 추출의 유효성을 판단할 수 있다.According to an embodiment, the validity may be determined based on a VR value when the object has left and right symmetry, but the validity may be determined based on an HR value when the object has up and down symmetry. In addition, when the object has symmetry both up, down, left and right, the validity of object extraction may be determined based on the average value of the VR value and the HR value.

이때, 대칭성 척도 값은 수식 8에 의해 계산된다.At this time, the symmetry measure value is calculated by Equation 8.

Figure pat00020
Figure pat00020

실시예에 따라 유효성 판단부(140)는 대칭성 척도 값이 제1 임계값보다 크지만 제2 임계값보다 작은 경우 사용자 조작에 의하여 객체의 적어도 일부 영역을 입력받을 수 있다. 적응적 알고리즘 수행시에도 배경과 객체의 분리가 어려운 경우 사용자로부터 직접 객체의 영역을 입력받을 수 있다. 실시예에 따라, 대칭성 척도 값이 제1 임계값보다 크고 제2 임계값보다 큰 경우 영상 입력부(110)를 통하여 영상을 새로 입력받을 수도 있다.
According to an exemplary embodiment, when the symmetry measure value is larger than the first threshold but smaller than the second threshold, the validity determination unit 140 may receive at least some areas of the object by a user manipulation. Even when the algorithm is separated, if the background and the object are difficult to separate, the user can receive the object area directly from the user. According to an embodiment, when the symmetry measure value is greater than the first threshold value and greater than the second threshold value, the image may be newly received through the image input unit 110.

상술한 일 실시예에 따른 객체 영역의 유효성 판단 장치는 대칭성 기초로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 인식되어 객체가 비 대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공하여, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있는 장점이 있다. Since the apparatus for determining the validity of the object region according to the above-described exemplary embodiment determines the validity of the object region based on the symmetry, there is an advantage in that an object having symmetry can be efficiently determined. In addition, when only a part of the object is recognized and the object is asymmetrically extracted, the user can draw and select an unextracted area to reduce the process of re-evaluating the validity of the entire object. There is an advantage.

또한 상술한 실시예에 따른 객체 추출방법은 객체와 배경의 경계점 4점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로 기존 추출 방법에 비해 신속하게 객체를 추출을 수행할 수 있는 장점이 있다.
In addition, the object extraction method according to the above-described embodiment extracts the object using IS (Intelligent Scissor) algorithm at each of the four boundary points of the object and the background, so that the object can be extracted more quickly than the existing extraction method. have.

도 2는 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 단계를 보여주는 순서도이다. 이하, 도 2를 참조하여 객체 영역의 유효성을 판단하는 방법에 대하여 설명하도록 한다. 도 1의 유효성 판단 장치(100)를 시계열적으로 구현한 경우에도 본 실시예에 해당하므로 영상 입력부(110), 객체 추출부(120), 대칭성 척도 계산부(130) 및 유효성 판단부(240)에 대하여 설명된 부분은 본 실시예에서도 그대로 적용된다.2 is a flowchart illustrating a step of determining the validity of an object region according to an embodiment of the present invention. Hereinafter, a method of determining the validity of the object area will be described with reference to FIG. 2. Even when the validity determination apparatus 100 of FIG. 1 is implemented in a time series, the image input unit 110, the object extractor 120, the symmetry scale calculation unit 130, and the validity determination unit 240 correspond to the present embodiment. The part described with respect to is also applied to this embodiment as it is.

S201 단계에서, 유효성 판단 장치(100)는 촬영장치를 이용하여 영상을 입력받는다. 영상 입력은 실시간 촬영에 의해 영상을 입력받을 수 있으며 실시예에 따라, 기 촬영된 영상을 저장하는 DB(미도시)로부터 영상 데이터를 전송받아 영상을 입력받을 수 있다.In operation S201, the validity determination apparatus 100 receives an image using a photographing apparatus. Image input may receive an image by real-time shooting, and in accordance with an embodiment, may receive the image data received from a DB (not shown) that stores the pre-recorded image.

S202 단계에서, 유효성 판단 장치(100)는 객체 영역을 자동으로 검출한다. 여기서 자동으로 검출한다는 것은 유효성 판단 장치(100)가 입력된 영상에 대하여 데이터 연산을 수행하여 영상에 포함된 객체의 윤곽선을 검출하여 추출하는 것을 뜻한다. 윤곽선의 검출은 영상에서 객체를 통과하게끔 수직선 및 수평선을 생성한다. 유효성 판단 장치(100)는 수직선 및 수평선이 객체와 배경의 경계점과 만나는 네 개의 점을 선택한다. 유효성 판단 장치(100)는 네 개의 점 각각으로부터 객체의 경계면을 트래킹(Tracking) 하여 윤곽선을 검출한다. In operation S202, the validity determination device 100 automatically detects the object area. The automatic detection means that the validity determination device 100 detects and extracts an outline of an object included in the image by performing a data operation on the input image. Detection of contours creates vertical and horizontal lines through the object in the image. The validity judgment apparatus 100 selects four points where the vertical line and the horizontal line meet the boundary point between the object and the background. The validity judgment apparatus 100 detects an outline by tracking an interface of an object from each of four points.

S203 단계에서, 유효성 판단 장치(100)는 영상을 회전시킨다. S201 단계에서 입력받은 영상은 객체의 수평을 확인하고, 대칭성 척도 값 계산을 유효하게 하기 위하여 영상의 회전을 수행한다. 일 실시예에 의하면, 추출된 객체의 중심점으로부터 객체의 윤곽선(객체와 배경과의 경계선)까지의 최대 거리 값을 가지는 좌표를 연결하는 직선과 영상의 세로축 또는 가로축과의 각도를 계산하여 계산된 각도만큼 영상을 회전시킨다. 다른 실시예에 의하면 추출된 객체만을 회전시킬 수도 있다. In operation S203, the validity determination apparatus 100 rotates the image. The image received in step S201 performs the rotation of the image to check the horizontality of the object and to validate the symmetry measure value. According to one embodiment, the angle calculated by calculating the angle between the vertical axis or the horizontal axis of the image and a straight line connecting the coordinates having the maximum distance value from the center point of the extracted object to the contour of the object (the boundary between the object and the background) Rotate the image by According to another embodiment, only the extracted object may be rotated.

S204 단계에서, 유효성 판단 장치(100)는 대칭성 척도 값을 계산한다. 대칭성 척도 값은 상술한 수학식 6 내지 수학식 8에 의해 계산된다. In operation S204, the validity determination device 100 calculates a symmetry measure value. The symmetry measure value is calculated by the above equations (6) to (8).

S205 단계에서, 유효성 판단 장치(100)는 추출된 객체의 유효성을 판단한다. 이때, 대칭성 척도 값이 미리 정해진 제1 임계값보다 작으면 유효성 판단 장치(100)는 상기 객체의 추출을 유효한 것으로 판단한다.In operation S205, the validity determination apparatus 100 determines the validity of the extracted object. At this time, if the symmetry measure value is less than the first threshold value, the validity determination device 100 determines that the extraction of the object is valid.

대칭성 척도 값이 제1 임계값보다 큰 경우 유효성 판단 장치(100)는 미리 정해진 제2 임계값과 비교하여(S207), 제2 임계값 보다 작으면 사용자의 조작에 의하여 객체의 적어도 일부 영역을 입력받고(S208), 제 2 임계값보다 크면 객체를 포함하는 영상을 재 입력받는다.(S209)
When the symmetry measure value is greater than the first threshold value, the validity determination device 100 compares the predetermined second threshold value (S207), and when the symmetry measure value is smaller than the second threshold value, inputs at least a partial region of the object by a user's manipulation. If it is greater than the second threshold (S208), the image containing the object is input again (S209).

상술한 일 실시예에 따른 객체 영역의 유효성 판단 방법은 대칭성 기초로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 인식되어 객체가 비 대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공하여, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있는 장점이 있다. The method of determining the validity of the object region according to the above-described exemplary embodiment has an advantage of efficiently determining an object having symmetry because the validity of the object region is determined based on the symmetry. In addition, when only a part of the object is recognized and the object is asymmetrically extracted, the user can draw and select an unextracted area to reduce the process of re-evaluating the validity of the entire object. There is an advantage.

또한 상술한 실시예에 따른 객체 추출방법은 객체와 배경의 경계점 4점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로 기존 추출 방법에 비해 신속하게 객체를 추출을 수행할 수 있는 장점이 있다.
In addition, the object extraction method according to the above-described embodiment extracts the object using IS (Intelligent Scissor) algorithm at each of the four boundary points of the object and the background, so that the object can be extracted more quickly than the existing extraction method. have.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

100 : 객체의 유효성 판단 장치
110 : 영상 입력부
120 : 객체 추출부
130 : 대칭성 척도 값 계산부
140 : 유효성 판단부
100: device for determining validity of an object
110: video input unit
120: object extraction unit
130: symmetry scale value calculation unit
140: validity judgment unit

Claims (16)

영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 방법에 있어서,
(a) 객체를 포함하는 영상을 입력받는 단계;
(b) 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 단계;
(c) 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 단계; 및
(d) 상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되,
상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 단계를 포함하는 객체 영역의 유효성 판단 방법.
In the method of extracting the object from the image to determine the validity of the extracted object area,
(a) receiving an image including an object;
(b) extracting the object by detecting an outline of the object in the image;
(c) calculating a symmetry measure value for the extracted object; And
(d) determining the validity of the extracted object based on the symmetry measure value,
And determining that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value.
제 1항에 있어서, 상기 (d) 단계는
상기 대칭성 척도 값이 상기 제1임계값 보다 큰 경우 미리 정해진 제2임계값과 비교하여, 상기 제2임계값보다 큰 경우 상기 객체를 포함하는 영상을 재 입력받고, 상기 제2임계값보다 작은 경우 사용자의 조작에 의하여 상기 객체의 적어도 일부 영역을 입력받는 단계를 더 포함하는 객체 영역의 유효성 판단 방법.
The method of claim 1, wherein step (d)
When the symmetry measure value is greater than the first threshold value, when compared with a second predetermined threshold value, when the value is greater than the second threshold value, the image including the object is input again, and when the value is smaller than the second threshold value. And receiving at least a partial area of the object by a user's manipulation.
제 1항에 있어서, 상기 (b) 단계 이후
상기 추출된 객체의 중심점으로부터 상기 객체의 윤곽선까지의 최대 거리 값을 가지는 좌표를 연결하는 직선과 상기 영상의 세로축 또는 가로축과의 각도를 계산하여 상기 계산된 각도만큼 상기 영상을 회전시키는 단계를 더 포함하는 객체 영역의 유효성 판단 방법.
The method of claim 1, wherein after step (b)
And rotating the image by the calculated angle by calculating an angle between a straight line connecting a coordinate having a maximum distance value from a center point of the extracted object to a contour of the object and a vertical or horizontal axis of the image. How to determine the validity of the object area.
제 1항에 있어서, 상기 윤곽선의 검출은
적응적 필터링 알고리즘에 의한 전처리 과정 및 IS(Intelligent Scissor) 알고리즘에 의해 수행되는 객체 영역의 유효성 판단 방법.
The method of claim 1, wherein the detection of the contour
A method for determining validity of an object region performed by a preprocessing process by an adaptive filtering algorithm and an intelligent scissor (IS) algorithm.
영상에서 객체의 윤곽선을 검출하여 상기 객체를 추출하는 방법에 있어서,
(a) 상기 영상을 전처리하여 상기 객체 이외의 배경 영역에서 엣지(edge) 성분을 감소시키는 단계;
(b) 상기 영상에서 상기 객체를 통과하게끔 수직선 및 수평선을 생성하는 단계;
(c) 상기 수직선 및 상기 수평선이 상기 객체와 상기 배경과의 경계와 만나는 점 네 개를 선택하는 단계; 및
(d) 상기 각각의 네 점들로부터 상기 객체의 경계를 트래킹 하여 윤곽선을 검출하는 단계를 포함하는 객체를 추출 방법.
In the method for extracting the object by detecting the contour of the object in the image,
(a) pre-processing the image to reduce edge components in the background region other than the object;
(b) generating vertical and horizontal lines through the object in the image;
(c) selecting four points where the vertical line and the horizontal line meet a boundary between the object and the background; And
(d) detecting an outline by tracking a boundary of the object from each of the four points.
제 5항에 있어서,
상기 전처리는 적응적 필터링 알고리즘을 이용하여 수행되는 객체를 추출 방법.
6. The method of claim 5,
Wherein said preprocessing is performed using an adaptive filtering algorithm.
제 5항에 있어서,
상기 트래킹은 IS(Intelligent Scissor) 알고리즘을 이용하여 수행되는 객체를 추출 방법.
6. The method of claim 5,
And the tracking is performed using an intelligent scissor (IS) algorithm.
제 5항에 있어서, 상기 각각의 네 점의 선택은
상기 수직선 및 상기 수평선의 코스트 값(Local Cost, 이하LC값)이 급격하게 변하는 지점을 각각의 점으로 선택하는 객체를 추출 방법.
6. The method of claim 5, wherein the selection of each of the four points is
Extracting an object for selecting a point at which the cost value (LC value) of the vertical line and the horizontal line changes rapidly.
제 8항에 있어서,
상기 각 점들은 상기 LC값이 최소인 점이며,
상기 LC값은 수식 LC = 1 + MG - G (여기서, G는 픽셀의 그레이언트(Gradient) 크기 값이고, MG는 전체 픽셀에서 최대 크기를 가지는 G값임)에 의해 계산되는 객체를 추출 방법.
The method of claim 8,
Each of the points is the point at which the LC value is the minimum.
Wherein the LC value is calculated by the formula LC = 1 + MG-G, where G is the gradient size value of the pixel and MG is the G value having the maximum size in all pixels.
제 8항에 있어서,
상기 LC값의 계산은 색 성분(RED, BLUE, GREEN)중에서 상기 객체에 가장 많이 포함된 색 성분 값을 기초로 하여 계산하는 객체를 추출 방법.
The method of claim 8,
And calculating the LC value based on the color component values most included in the object among the color components (RED, BLUE, GREEN).
제 1항에 있어서,
상기 대칭성 척도 값의 계산은 상기 추출된 객체의 중심축으로부터 상기 객체의 윤곽선까지의 거리 차이 값의 평균에 의해 계산되는 객체 영역의 유효성 판단 방법.
The method of claim 1,
The method of determining the validity of the object region is calculated by the average of the distance difference value from the center axis of the extracted object to the contour of the object.
제 11항에 있어서, 상기 평균은
상기 중심축으로부터 상기 객체의 윤곽선까지의 거리를 정규화한 평균인 객체 영역의 유효성 판단 방법.
12. The method of claim 11, wherein said average is
The method of determining the validity of the object region which is an average obtained by normalizing the distance from the central axis to the contour of the object.
제 11항에 있어서,
상기 중심축은 상기 추출된 객체에 대하여 수직인 축이거나 수평인 축인 객체 영역의 유효성 판단 방법.
12. The method of claim 11,
And the central axis is a vertical axis or a horizontal axis with respect to the extracted object.
제 11항에 있어서, 상기 대칭성 척도 값의 계산은
수식
Figure pat00021
에 의하여 계산되고(여기서 R은 상기 대칭성 척도 값, VR은 세로축에 대한 대칭성 척도 값, HR은 가로축에 대한 대칭성 척도 값),
상기 VR 및 HR은 수식
Figure pat00022
;
Figure pat00023

(d1, d2는 세로축으로부터 상기 검출된 윤곽선까지의 거리 값, d3, d4는 가로축으로부터 상기 검출된 윤곽선까지의 거리 값)에 의해 계산되는 객체 영역의 유효성 판단 방법.
12. The method of claim 11 wherein the calculation of the symmetry measure value is
Equation
Figure pat00021
(Where R is the symmetry measure value, VR is the symmetry measure value for the longitudinal axis, HR is the symmetry measure value for the abscissa),
The VR and HR formula
Figure pat00022
;
Figure pat00023

and d1 and d2 are distance values from a vertical axis to the detected contour, and d3 and d4 are distance values from a horizontal axis to the detected contour.
영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 장치에 있어서,
객체를 포함하는 영상을 입력받는 영상 입력부;
상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 객체 추출부;
상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 대칭성 척도 값 계산부; 및
상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되,
상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 유효성 판단부를 포함하는 객체 영역의 유효성 판단 장치.
An apparatus for determining the validity of the extracted object region by extracting an object from an image,
An image input unit configured to receive an image including an object;
An object extracting unit extracting the object by detecting an outline of the object in the image;
A symmetry measure value calculator for calculating a symmetry measure value for the extracted object; And
The validity of the extracted object is determined based on the symmetry measure value.
And a validity determination unit that determines that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value.
제 15항에 있어서, 상기 유효성 판단부는
상기 대칭성 척도 값이 상기 제1임계값 보다 큰 경우 미리 정해진 제2임계값과 비교하여, 상기 제2임계값보다 큰 경우 상기 객체를 포함하는 영상을 재 입력받고, 상기 제2임계값보다 작은 경우 사용자의 조작에 의하여 상기 객체의 적어도 일부 영역을 입력받는 객체 영역의 유효성 판단 장치.
The method of claim 15, wherein the validity determination unit
When the symmetry measure value is larger than the first threshold value, compared to a second predetermined threshold value, when the symmetry measure value is larger than the second threshold value, the image including the object is input again, and when the value is smaller than the second threshold value. An apparatus for determining validity of an object area receiving at least a partial area of the object by a user's manipulation.
KR1020110100629A 2011-10-04 2011-10-04 Method for validation of object boundaries and system of thereof, method for detection of object KR101274741B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110100629A KR101274741B1 (en) 2011-10-04 2011-10-04 Method for validation of object boundaries and system of thereof, method for detection of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110100629A KR101274741B1 (en) 2011-10-04 2011-10-04 Method for validation of object boundaries and system of thereof, method for detection of object

Publications (2)

Publication Number Publication Date
KR20130036511A true KR20130036511A (en) 2013-04-12
KR101274741B1 KR101274741B1 (en) 2013-06-17

Family

ID=48437798

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110100629A KR101274741B1 (en) 2011-10-04 2011-10-04 Method for validation of object boundaries and system of thereof, method for detection of object

Country Status (1)

Country Link
KR (1) KR101274741B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046177A (en) * 2018-10-18 2020-05-07 네오컨버전스 주식회사 Method and apparatus of designating an object for learning artificail intelligence
KR102161679B1 (en) * 2020-01-03 2020-10-05 주식회사 케이스랩 Object recognition apparatus and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4272538B2 (en) 2004-01-05 2009-06-03 本田技研工業株式会社 Moving object detection apparatus, moving object detection method, and moving object detection program
KR100976142B1 (en) * 2008-01-03 2010-08-16 전남대학교산학협력단 detection method of road vehicles
KR101038726B1 (en) * 2009-03-18 2011-06-03 (주)에스엔알 High reliance auto surveillance method, device and system
KR101033366B1 (en) * 2009-09-17 2011-05-09 고려대학교 산학협력단 A shape-based index construction and matching method for the efficient 3d object recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200046177A (en) * 2018-10-18 2020-05-07 네오컨버전스 주식회사 Method and apparatus of designating an object for learning artificail intelligence
KR102161679B1 (en) * 2020-01-03 2020-10-05 주식회사 케이스랩 Object recognition apparatus and method

Also Published As

Publication number Publication date
KR101274741B1 (en) 2013-06-17

Similar Documents

Publication Publication Date Title
JP6719457B2 (en) Method and system for extracting main subject of image
JP5554984B2 (en) Pattern recognition method and pattern recognition apparatus
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
EP3358298B1 (en) Building height calculation method and apparatus, and storage medium
CA2867365C (en) Method, system and computer storage medium for face detection
KR101283262B1 (en) Method of image processing and device thereof
KR101322168B1 (en) Apparatus for real-time face recognition
KR101272448B1 (en) Apparatus and method for detecting region of interest, and the recording media storing the program performing the said method
US9613266B2 (en) Complex background-oriented optical character recognition method and device
CN110264493A (en) A kind of multiple target object tracking method and device under motion state
CN107423306B (en) Image retrieval method and device
KR101139389B1 (en) Video Analysing Apparatus and Method Using Stereo Cameras
WO2021004186A1 (en) Face collection method, apparatus, system, device, and medium
WO2017000493A1 (en) Live iris detection method and terminal
KR20140110586A (en) Image matching apparatus, image matching system and image matching mehod
CN109255802B (en) Pedestrian tracking method, device, computer equipment and storage medium
KR20150059701A (en) Method for recognizing contectless fingerprint and electronic apparatus for performing the same.
JP2011113313A (en) Attitude estimation device
JP2010205067A (en) Device, method and program for extracting area
JP6338429B2 (en) Subject detection apparatus, subject detection method, and program
CN106909916B (en) Method for rapidly detecting and identifying sidewalk zebra crossing based on mobile phone platform
KR101541384B1 (en) Device for Recognition of Object and method
CN103049911A (en) Contour detection stability judging method and image searching method
CN113569707A (en) Living body detection method, living body detection device, electronic apparatus, and storage medium
KR101274741B1 (en) Method for validation of object boundaries and system of thereof, method for detection of object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160328

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170329

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee