KR20130036511A - Method for validation of object boundaries and system of thereof, method for detection of object - Google Patents
Method for validation of object boundaries and system of thereof, method for detection of object Download PDFInfo
- Publication number
- KR20130036511A KR20130036511A KR1020110100629A KR20110100629A KR20130036511A KR 20130036511 A KR20130036511 A KR 20130036511A KR 1020110100629 A KR1020110100629 A KR 1020110100629A KR 20110100629 A KR20110100629 A KR 20110100629A KR 20130036511 A KR20130036511 A KR 20130036511A
- Authority
- KR
- South Korea
- Prior art keywords
- value
- image
- validity
- symmetry
- extracted
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000001514 detection method Methods 0.000 title claims description 6
- 238000010200 validation analysis Methods 0.000 title abstract 6
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 8
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/68—Analysis of geometric attributes of symmetry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 컴퓨터, 휴대용 단말기 및 전자 기기의 촬영 장치를 이용하여 획득한 영상을 입력받아 객체를 추출하는 방법에 관한 것이다.The present invention relates to a method of extracting an object by receiving an image obtained by using a photographing device of a computer, a portable terminal, and an electronic device.
영상으로부터 객체를 인식하는 기술은 영상 처리나 패턴 인식, 컴퓨터 비전과 신경망 같은 다양한 분야에 걸쳐서 활발히 연구되고 있고, 상업적, 법적으로 수많은 응용분야를 가지고 있다. 최근, PDA나 휴대폰 등과 같은 모바일 기기에 내장된 카메라를 이용하여 영상을 획득할 수 있으며, 모바일 기기의 사용이 증대됨에 따라 사용자의 편의를 위해 모바일 기기를 이용한 객체 인식에 대한 요구가 증대되고 있는 실정이다.The technology of recognizing objects from images has been actively researched in various fields such as image processing, pattern recognition, computer vision and neural networks, and has numerous application fields commercially and legally. Recently, an image may be acquired by using a camera embedded in a mobile device such as a PDA or a mobile phone, and as the use of the mobile device increases, the demand for object recognition using a mobile device for the user's convenience is increasing. to be.
컴퓨터 비전에서의 객체 인식이란, 한 영상과 모델 데이터베이스가 주어졌을 때, 영상 내의 객체와 가장 유사한 모델을 데이터베이스에서 검색해 내는 일련의 과정을 말한다. 그러나, 동일한 객체라 하더라도 각각의 영상에서는 객체의 크기, 방향, 위치, 포즈 등이 다르게 나타날 수 있고, 또한 한 영상 내에 여러 개의 객체가 포함되어 있거나 아니면 해당 객체가 다른 객체에 의해 가려져 그 일부분만 볼 수 있는 경우도 있기 때문에 이런 모든 조건에서도 강인하게 동작하는 인식 기법에 대한 연구가 많이 진행되어 왔다.Object recognition in computer vision is a process of retrieving a model from a database that most closely resembles an object in an image, given a database of images and models. However, even in the same object, the size, direction, position, and pose of the object may be different in each image. Also, if a single image includes multiple objects or the object is hidden by other objects, only a part of them may be viewed. In some cases, many researches have been conducted on recognition techniques that work robustly under all these conditions.
[관련기술문헌][Related Technical Literature]
1. 영상에서 관심 영역 지정 및 윤곽선 영상을 이용한 객체 인식 방법 및 장치(특허출원번호: 제10-2009-0109727호) 1. Method and apparatus for object recognition using region of interest in image and contour image (Patent Application No. 10-2009-0109727)
2. 디지털 영상 처리기에서 꽃을 인식하는 장치 및 방법 (특허출원번호: 제10-2008-0134964호)2. Apparatus and method for recognizing flowers in digital image processor (Patent Application No .: 10-2008-0134964)
개시된 기술이 이루고자 하는 기술적 과제는 영상에서 객체를 추출하고 추출된 객체의 대칭성을 기초로 하여 객체의 유효성을 판단하는 방법 및 장치를 제공하는데 있다. 또한, 영상을 전처리하고, 영상의 배경과 객체의 경계점으로부터 객체 영역을 자동으로 추출하는 방법 및 장치를 제공하는 데 있다. An object of the present invention is to provide a method and apparatus for extracting an object from an image and determining the validity of the object based on the symmetry of the extracted object. Another object of the present invention is to provide a method and apparatus for preprocessing an image and automatically extracting an object region from an image background and an object boundary point.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제1측면은, 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 방법에 있어서, 객체를 포함하는 영상을 입력받는 단계; 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 단계; 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 단계; 및 상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되,상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 단계를 포함하는 객체 영역의 유효성 판단 방법을 제공한다.According to a first aspect of the disclosed technology to achieve the above technical problem, a method of determining the validity of the extracted object region by extracting an object from an image, the method comprising: receiving an image including an object; Extracting the object by detecting an outline of the object in the image; Calculating a symmetry measure value for the extracted object; And determining the validity of the extracted object based on the symmetry measure value, and determining that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value. Provide a method of judgment.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제2측면은, 영상에서 객체의 윤곽선을 검출하여 상기 객체를 추출하는 방법에 있어서, 상기 영상을 전처리하여 상기 객체 이외의 배경 영역에서 엣지(edge) 성분을 감소시키는 단계; 상기 영상에서 상기 객체를 통과하게끔 수직선 및 수평선을 생성하는 단계; 상기 수직선 및 상기 수평선이 상기 객체와 상기 배경과의 경계와 만나는 점 네 개를 선택하는 단계; 및 상기 각각의 네 점들로부터 상기 객체의 경계를 트래킹 하여 윤곽선을 검출하는 단계를 포함하는 객체를 추출 방법.을 제공한다.The second aspect of the disclosed technology to achieve the above technical problem, in the method of extracting the object by detecting the contour of the object in the image, pre-processing the image to remove the edge (edge) component in the background region other than the object Reducing; Generating vertical and horizontal lines through the object in the image; Selecting four points where the vertical line and the horizontal line meet a boundary between the object and the background; And detecting an outline by tracking a boundary of the object from each of the four points.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제3측면은, 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 장치에 있어서, 객체를 포함하는 영상을 입력받는 영상 입력부; 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 객체 추출부; 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 대칭성 척도 값 계산부; 및 상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되, 상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 유효성 판단부를 포함하는 객체 영역의 유효성 판단 장치를 제공한다.According to a third aspect of the disclosed technology, an apparatus for extracting an object from an image and determining the validity of the extracted object region may include: an image input unit configured to receive an image including an object; An object extracting unit extracting the object by detecting an outline of the object in the image; A symmetry measure value calculator for calculating a symmetry measure value for the extracted object; And a validity determination unit that determines the validity of the extracted object based on the symmetry measure value, and determines that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value. Provide an apparatus for determining validity.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technique may have the following effects. It is to be understood, however, that the scope of the disclosed technology is not to be construed as limited thereby, as it is not meant to imply that a particular embodiment should include all of the following effects or only the following effects.
일 실시예에 따른 객체 영역의 유효성 판단 방법은 대칭성 기초로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 인식되어 객체가 비 대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공하여, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있다. The method of determining the validity of the object region according to an embodiment determines the validity of the object region based on the symmetry, and thus has an advantage of efficiently determining an object having symmetry. In addition, when only a partial region of the object is recognized and the object is extracted asymmetrically, the user may draw and select an unextracted region to reduce the process of re-evaluating the validity of the entire object. .
일 실시예에 따른 객체 추출방법은 객체와 배경의 경계점 4점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로 기존 추출 방법에 비해 신속하게 객체를 추출을 수행할 수 있는 장점이 있다. The object extraction method according to an embodiment extracts an object using an IS (Intelligent Scissor) algorithm at each of four boundary points of the object and the background, so that the object extraction method can be performed faster than the existing extraction method.
도 1은 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 장치를 보여주는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 단계를 보여주는 순서도이다.
도 3은 입력된 영상으로부터 객체가 추출된 모습을 보여주는 도면이다.
도 4는 본 발명의 일 실시예에 따라 대칭성 척도 값을 계산하기 위해 객체의 중심축과 중심축으로부터 객체의 윤곽선까지의 거리를 나타낸 도면이다.
도 5는 객체의 중심축으로부터 객체의 윤곽선까지의 거리 정보를 이용하여 계산된 대칭성 척도 값의 분포를 보여주는 그래프이다.
도 6은 본 발명의 일 실시예에 따라 추출된 객체의 윤곽선과, 객체 의외의 영역을 제거한 영상을 나타내는 도면이다.
도 7은 객체를 지나는 수평선 및 상기 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다.
도 8은 본 발명의 일 실시예에 따라 전처리가 수행된 영상에서 객체를 지나는 수평선 및 상기 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다. 1 is a block diagram illustrating an apparatus for determining validity of an object region according to an embodiment of the present invention.
2 is a flowchart illustrating a step of determining the validity of an object region according to an embodiment of the present invention.
3 is a diagram illustrating an object extracted from an input image.
4 is a diagram illustrating a center axis of an object and a distance from the center axis to an outline of the object in order to calculate a symmetry measure value according to an embodiment of the present invention.
5 is a graph showing a distribution of symmetry scale values calculated using distance information from an object's central axis to an object's contour.
FIG. 6 is a diagram illustrating an image of contours extracted from an object and an image from which an area other than the object is removed according to an embodiment of the present invention.
7 is a graph showing a horizontal line passing through an object and a local cost (LC) value of the horizontal line.
FIG. 8 is a graph illustrating a horizontal line passing through an object and a local cost (LC) value of the horizontal line in an image in which preprocessing is performed according to an embodiment of the present invention.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.The description of the disclosed technique is merely an example for structural or functional explanation and the scope of the disclosed technology should not be construed as being limited by the embodiments described in the text. That is, the embodiments may be variously modified and may have various forms, and thus the scope of the disclosed technology should be understood to include equivalents capable of realizing the technical idea.
한편, 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present invention will be understood as follows.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "comprise" or "have" refer to a feature, number, step, operation, component, part or implementation thereof. It is to be understood that the combination is intended to be present, but not to exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.
각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.Each step may occur differently from the stated order unless the context clearly dictates the specific order. That is, each step may occur in the same order as described, may be performed substantially concurrently, or may be performed in reverse order.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the disclosed technology belongs, unless otherwise defined. Terms defined in commonly used dictionaries should be interpreted to be consistent with meaning in the context of the relevant art and can not be construed as having ideal or overly formal meaning unless expressly defined in the present application.
도 1은 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 장치를 보여주는 블록도이다. 도 1을 참조하면, 객체의 유효성 판단 장치(100)는 영상 입력부(110), 객체 추출부(120), 대칭성 척도 값 계산부(130) 및 유효성 판단부(140)를 포함한다.1 is a block diagram illustrating an apparatus for determining validity of an object region according to an embodiment of the present invention. Referring to FIG. 1, the
영상 입력부(110)는 카메라 또는 이미지 센서와 같은 촬영 소자를 포함하며, 촬영에 의해 객체를 포함한 영상을 입력받는다. 여기서 객체는 촬영의 목적에 해당되는 피사체이며, 실시예에 따라 다양한 피사체가 객체로서 입력 될 수 있으나, 본 발명은 꽃의 영상으로부터 꽃의 영역 추출하는 데 특화된 장점을 가지므로 이하의 설명에서는 영상은 꽃을 포함하는 영상으로, 객체는 꽃을 지칭하는 것으로 설명하도록 한다. 영상 입력부(110)는 실시간 촬영에 의해 영상을 입력받으나 실시예에 따라, 기 촬영된 영상을 저장하는 DB(미도시)로부터 영상 데이터를 전송받아 영상을 입력받을 수 있다. The
객체 추출부(120)는 영상 입력부(110)로부터 입력된 영상을 이용하여 객체의 윤곽선을 검출함으로써 추출한다. 윤곽선의 검출은 영상에서 객체를 통과하게끔 수직선 및 수평선을 생성하고, 수직선 및 수평선이 객체와 배경의 경계점과 만나는 네 개의 점을 선택한다. 이어서, 네 개의 점 각각으로부터 객체의 경계면을 트래킹 하여 윤곽선을 검출한다. The
윤곽선의 검출을 상세히 설명하면, 일 실시예에 따라 객체 추출부(120)는 입력받은 영상을 전처리하여 영상에서 객체 이외의 배경에 해당되는 부분의 엣지(edge) 성분을 감소시킨다. 여기서, 엣지(edge) 성분은 영상을 이루는 픽셀의 색 성분 값(R,G,B)이 급격하게 바뀌는 부분을 의미하며, 로컬 코스트 값(Local Coast, 이하 LC값)에 의해 계산된다. LC값의 계산은 도 7의 설명에서 설명하도록 한다. 실시예에 의하면 엣지(edge) 성분의 감소는 적응적 필터링 알고리즘을 사용하여 수행한다. 전처리에 의해 엣지(edge) 성분을 감소시키는 이유는, 영상에서 객체의 경계면 의외의 부분, 즉 배경에 해당되는 부분에 존재하는 엣지(edge) 성분에 의해 객체가 잘못 추출되는 것을 방지하기 위함이다.Detecting the contour in detail, according to an embodiment, the
여기서 엣지(edge) 성분을 용이하게 설명하기 위해 도 7 및 도 8을 참조하도록 한다. Herein, reference will be made to FIGS. 7 and 8 to easily describe the edge component.
도 7 (a)는 영상을 지나는 수평선을 보여주고, 도 7 (b)는 수평선을 이루는 픽셀의 LC값을 보여주는 그래프이다. LC값은 수학식 1에 의해 표현된다. FIG. 7 (a) shows a horizontal line passing through the image, and FIG. 7 (b) shows a LC value of pixels forming the horizontal line. The LC value is represented by equation (1).
수학식 1에서, G는 픽셀의 그레디언트(Gradient) 크기 값, MG는 전체 픽셀에서 최대 크기를 갖는 그레디언트 값(G)을 의미한다. 이때 G 값은 수학식 2에 의해 계산되고, In
은 컬러영상에서 Red성분의 Gradient,과은 각각 Red성분의 수평 및 수직성분의 Gradient 값, I는 픽셀값을 의미하며 수학식 3에 의해 계산된다. Gradient of Red component in color image, and Are the gradient values of the horizontal and vertical components of the red component, respectively, and I is the pixel value, and is calculated by Equation 3.
도 7 (b)에 의하면 LC값은 영상과 객체의 경계면 외에도 배경영역 내지 객체의 내부 영역에서도 급격한 값의 변화(엣지(edge) 성분)를 보이므로, 배경과 객체의 경계 검출에 방해 요소로 작용한다. According to FIG. 7 (b), since the LC value shows a sharp change in value (edge component) in the background region or the internal region of the object in addition to the boundary between the image and the object, it acts as an obstacle to detecting the boundary between the background and the object. do.
따라서, 배경과 객체의 경계 검출을 용이하게 하기 위하여 적응적 필터링 알고리즘을 사용하여 배경의 엣지(edge) 성분을 감소시킨다.Therefore, an adaptive filtering algorithm is used to reduce the edge component of the background to facilitate detection of the boundary between the background and the object.
도 8은 본 발명의 일 실시예에 따라 전처리가 수행된 영상에서 객체를 지나는 수평선 및 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다.FIG. 8 is a graph showing a local cost (LC) value of a horizontal line and a horizontal line passing through an object in an image in which preprocessing is performed according to an embodiment of the present invention.
도 8 (a)는 수학식 4에 의한 적응적 필터링 알고리즘을 적용하여 전처리를 수행한 영상을 보여준다. FIG. 8 (a) shows an image of pre-processing by applying an adaptive filtering algorithm according to Equation 4. FIG.
수학식 4에서 는 필터링 후의 Gradient 값을 의미하여, 는 입력 Gradient 값, 은 m에 따라 정해지는 상수 값을 의미한다. 적응적 필터링 알고리즘을 적용하여 도 8 (a)에서 도시하는 바와 같이 배경의 엣지 성분들이 제거되었음을 알 수 있다.In equation (4) Means the gradient value after filtering, Is the input gradient value, Is a constant value determined by m. It can be seen that the edge components of the background have been removed by applying the adaptive filtering algorithm as shown in FIG.
도 8 (b)는 적응적 필터링 알고리즘의 전처리가 수행된 영상에서 객체를 지나는 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다. 배경에서 엣지 성분들이 제거되어 배경과 객체의 경계를 명확하게 알 수 있다. 8 (b) is a graph showing a local cost (LC) value of a horizontal line passing through an object in an image in which the preprocessing of the adaptive filtering algorithm is performed. Edge components are removed from the background to clearly see the boundary between the background and the object.
도 8은 객체를 지나는 수평선에 의해 배경과 객체의 경계점 두 점이 선택되는 것을 보여주고 있으나, 객체 추출부(120)는 같은 방법으로 객체를 지나는 수직선을 생성하여 배경과 객체의 경계점 두 점을 선택하여 배경과 객체의 경계점 모두 네 점을 선택한다. 실시예에 의하면 각 점의 선택은 수평선 및 수직선에서 LC값이 최소인 점을 선택하는 것으로 하나, LC 값은 계산식에 따라 최대 값, 최소 값이 바뀔 수 있으므로 각 점은 LC 값이 급격하게 변하는 지점을 경계점으로 선택할 수 있다. FIG. 8 shows that two boundary points of the background and the object are selected by a horizontal line passing through the object, but the
이어서 객체 추출부(120)는 네 개의 점 각각으로부터 객체의 경계면을 트래킹(Tracking) 하여 윤곽선을 검출한다. 이때, 트래킹은 IS(Intelligent Scissor) 알고리즘에 의해 수행된다. IS알고리즘 수행에 의해 네 개의 점을 연결하는 선이 서로 연결되어 윤곽선이 검출되어 객체가 추출된다. 이때 객체가 추출된다고 함은, 객체의 윤곽선이 폐 루프를 형성하여 객체가 영상의 배경으로부터 분리된 영역을 가지게 되는 것을 말한다. 한편, IS 알고리즘은 수학식 5에 기초하여 수행된다. The
여기서 는 비용함수로서 포인트 p로부터 다음 포인트 q를 찾는데 사용되는 값이다. 는 canny edge의 결과 값 와 그레디언트(Gradient) 값 의 가중치 의 결합으로 계산된다. 값을 이용하여 영상의 두 점 사이의 최소 비용을 가지는 최적 경로의 연산은 Two-Dimensional Dynamic Programming 알고리즘에 의하여 수행된다. here Is a cost function that is used to find the next point q from point p. Is the result of the canny edge And gradient values Weight of Calculated by the combination of. The calculation of the optimal path with the minimum cost between two points in the image using the value is performed by two-dimensional dynamic programming algorithm.
다시 도 1을 참조하면, 대칭성 척도 값 계산부(130)는 추출된 객체에 대하여 대칭성 척도 값을 계산한다. 한편, 영상 입력부(110)에 의해 입력받은 영상은 객체의 수평을 확인하고 대칭성 척도 값 계산을 유효하게 하기 위하여 실시예에 따라 객체의 유효성 판단 장치(100)는 영상 회전부(미도시)를 더 포함할 수 있다. Referring back to FIG. 1, the symmetry
일 실시예에 의하면, 영상 회전부(미도시)는 추출된 객체의 중심점으로부터 객체의 윤곽선(객체와 배경과의 경계선)까지의 최대 거리 값을 가지는 좌표를 연결하는 직선과 영상의 세로축 또는 가로축과의 각도를 계산하여 계산된 각도만큼 영상을 회전시킨다. 다른 실시예에 의하면 영상 회전부(미도시)는 추출된 객체만을 회전시킬 수도 있다. According to an embodiment, the image rotating unit (not shown) may have a straight line connecting a coordinate having a maximum distance value from the center point of the extracted object to the contour of the object (the boundary between the object and the background) and the vertical or horizontal axis of the image. Rotate the image by the calculated angle by calculating the angle. According to another embodiment, the image rotating unit (not shown) may rotate only the extracted object.
일 실시예에 의하면, 대칭성 척도 값의 계산은 추출된 객체의 중심축으로부터 객체의 윤곽선까지의 정규화된 거리 차이 값의 평균에 의해 계산된다. According to one embodiment, the calculation of the symmetry measure value is calculated by the average of the normalized distance difference values from the center axis of the extracted object to the contour of the object.
거리 값의 평균을 명확히 설명하기 위해 도 4를 참조하도록 한다.Reference is made to FIG. 4 to clarify the average of the distance values.
도 4는 객체의 중심축과 중심축으로부터 객체의 윤곽선까지의 거리를 측정하기 위한 도면이다. 가로축 W는 가로방향(width)를 의미하고 세로축 H는 높이(height)를 뜻한다. 도 4(a)의 d1과 d2는 객체의 세로축을 기준으로 하여 객체의 윤곽선까지의 거리를 나타낸다. 4 is a diagram for measuring a distance from the central axis and the central axis of the object to the contour of the object. The horizontal axis W means width and the vertical axis H means height. D1 and d2 of FIG. 4 (a) show distances to the contour of the object based on the vertical axis of the object.
수학식 6은 세로축을 기준으로 대칭성 척도 값을 계산하는 식이다. Equation 6 calculates a symmetry measure value based on the vertical axis.
수학식 7은 가로축을 기준으로 대칭성 척도 값을 계산하는 식이다. Equation 7 calculates a symmetry scale value based on the horizontal axis.
이때, 가로축 W는 가로방향(width)를 의미하고 세로축 H는 높이(height)를 뜻한다. 도 4(b)의 d3과 d4는(미도시) 객체의 가로축을 기준으로 하여 객체의 윤곽선까지의 거리를 나타낸다. In this case, the horizontal axis W means width and the vertical axis H means height. In FIG. 4B, d3 and d4 (not shown) represent distances to the contour of the object based on the horizontal axis of the object.
유효성 판단부(140)는 대칭성 척도 값 VR 내지 HR을 기초로 하여 추출된 객체의 유효성을 판단한다. 일 실시예에 의하면 객체가 수직축을 기준으로 하여 좌우 대칭만 가지는 경우 유효성 판단부(140)는 VR값을 기준으로 추출된 객체의 유효성을 판단한다. 객체가 좌우 대칭성을 가질 경우 객체 추출부(120)에서 객체가 정확히 추출되었다면 추출된 객체에서 d1 및 d2는 정규한 분포를 가지게 된다. 따라서, 유효성 판단부(140)는 VR값을 미리 정해진 임계값 (제1 임계값)과 비교하여 제1 임계값보다 VR값이 작게 측정된 경우 상기 객체의 추출을 유효한 것으로 판단한다. The
유효성 판단을 명확하게 설명하게 위해 도 3 및 도 5를 참조한다.Reference is made to FIGS. 3 and 5 to clarify the validity judgment.
도 3 (b)는 객체의 일부 영역만이 추출되었기 때문에 VR값이 제1 임계값보다 크게 계산된다. 따라서 유효성 판단부(140)는 도 3 (b)의 객체 추출을 유효하지 않다고 판단한다. 도 3 (a)는 객체의 영역에 맞추어 객체가 잘 추출되었기 때문에 VR값이 제1 임계값보다 작게 계산된다. 따라서 유효성 판단부(140)는 도 3 (a)의 객체 추출을 유효하다고 판단한다.In FIG. 3B, since only a partial region of the object is extracted, the VR value is calculated to be larger than the first threshold value. Therefore, the
도 5는 객체의 중심축으로부터 객체의 윤곽선까지의 거리 정보를 이용하여 계산된 대칭성 척도 값의 분포를 보여주는 그래프이다. 영상으로부터 객체 영역이 유효하게 추출된 경우 파란 선으로 표시된 것과 같이 d1 및 d2(혹은 d3 및 d4)는 대칭된 분포를 보인다. 그러나 객체 영역이 유효하게 추출되지 않은 경우 붉은 선으로 표시된 바와 같이 거리 값이 큰 분포를 보인다. 5 is a graph showing a distribution of symmetry scale values calculated using distance information from an object's central axis to an object's contour. When the object region is effectively extracted from the image, as shown by the blue line, d1 and d2 (or d3 and d4) show a symmetrical distribution. However, if the object area is not extracted effectively, the distance value shows a large distribution as indicated by the red line.
실시예에 의하면 객체가 좌우 대칭을 가지는 경우 유효성의 판단은 VR값을 기초로하여 수행될 수 있으나, 객체가 상하 대칭을 가지는 경우 유효성의 판단은 HR값을 기초로하여 수행될 수 있다. 또한 객체가 상하, 좌우 모두 대칭성을 가지는 경우 VR값 및 HR값의 평균값에 의해 객체 추출의 유효성을 판단할 수 있다.According to an embodiment, the validity may be determined based on a VR value when the object has left and right symmetry, but the validity may be determined based on an HR value when the object has up and down symmetry. In addition, when the object has symmetry both up, down, left and right, the validity of object extraction may be determined based on the average value of the VR value and the HR value.
이때, 대칭성 척도 값은 수식 8에 의해 계산된다.At this time, the symmetry measure value is calculated by Equation 8.
실시예에 따라 유효성 판단부(140)는 대칭성 척도 값이 제1 임계값보다 크지만 제2 임계값보다 작은 경우 사용자 조작에 의하여 객체의 적어도 일부 영역을 입력받을 수 있다. 적응적 알고리즘 수행시에도 배경과 객체의 분리가 어려운 경우 사용자로부터 직접 객체의 영역을 입력받을 수 있다. 실시예에 따라, 대칭성 척도 값이 제1 임계값보다 크고 제2 임계값보다 큰 경우 영상 입력부(110)를 통하여 영상을 새로 입력받을 수도 있다.
According to an exemplary embodiment, when the symmetry measure value is larger than the first threshold but smaller than the second threshold, the
상술한 일 실시예에 따른 객체 영역의 유효성 판단 장치는 대칭성 기초로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 인식되어 객체가 비 대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공하여, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있는 장점이 있다. Since the apparatus for determining the validity of the object region according to the above-described exemplary embodiment determines the validity of the object region based on the symmetry, there is an advantage in that an object having symmetry can be efficiently determined. In addition, when only a part of the object is recognized and the object is asymmetrically extracted, the user can draw and select an unextracted area to reduce the process of re-evaluating the validity of the entire object. There is an advantage.
또한 상술한 실시예에 따른 객체 추출방법은 객체와 배경의 경계점 4점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로 기존 추출 방법에 비해 신속하게 객체를 추출을 수행할 수 있는 장점이 있다.
In addition, the object extraction method according to the above-described embodiment extracts the object using IS (Intelligent Scissor) algorithm at each of the four boundary points of the object and the background, so that the object can be extracted more quickly than the existing extraction method. have.
도 2는 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 단계를 보여주는 순서도이다. 이하, 도 2를 참조하여 객체 영역의 유효성을 판단하는 방법에 대하여 설명하도록 한다. 도 1의 유효성 판단 장치(100)를 시계열적으로 구현한 경우에도 본 실시예에 해당하므로 영상 입력부(110), 객체 추출부(120), 대칭성 척도 계산부(130) 및 유효성 판단부(240)에 대하여 설명된 부분은 본 실시예에서도 그대로 적용된다.2 is a flowchart illustrating a step of determining the validity of an object region according to an embodiment of the present invention. Hereinafter, a method of determining the validity of the object area will be described with reference to FIG. 2. Even when the
S201 단계에서, 유효성 판단 장치(100)는 촬영장치를 이용하여 영상을 입력받는다. 영상 입력은 실시간 촬영에 의해 영상을 입력받을 수 있으며 실시예에 따라, 기 촬영된 영상을 저장하는 DB(미도시)로부터 영상 데이터를 전송받아 영상을 입력받을 수 있다.In operation S201, the
S202 단계에서, 유효성 판단 장치(100)는 객체 영역을 자동으로 검출한다. 여기서 자동으로 검출한다는 것은 유효성 판단 장치(100)가 입력된 영상에 대하여 데이터 연산을 수행하여 영상에 포함된 객체의 윤곽선을 검출하여 추출하는 것을 뜻한다. 윤곽선의 검출은 영상에서 객체를 통과하게끔 수직선 및 수평선을 생성한다. 유효성 판단 장치(100)는 수직선 및 수평선이 객체와 배경의 경계점과 만나는 네 개의 점을 선택한다. 유효성 판단 장치(100)는 네 개의 점 각각으로부터 객체의 경계면을 트래킹(Tracking) 하여 윤곽선을 검출한다. In operation S202, the
S203 단계에서, 유효성 판단 장치(100)는 영상을 회전시킨다. S201 단계에서 입력받은 영상은 객체의 수평을 확인하고, 대칭성 척도 값 계산을 유효하게 하기 위하여 영상의 회전을 수행한다. 일 실시예에 의하면, 추출된 객체의 중심점으로부터 객체의 윤곽선(객체와 배경과의 경계선)까지의 최대 거리 값을 가지는 좌표를 연결하는 직선과 영상의 세로축 또는 가로축과의 각도를 계산하여 계산된 각도만큼 영상을 회전시킨다. 다른 실시예에 의하면 추출된 객체만을 회전시킬 수도 있다. In operation S203, the
S204 단계에서, 유효성 판단 장치(100)는 대칭성 척도 값을 계산한다. 대칭성 척도 값은 상술한 수학식 6 내지 수학식 8에 의해 계산된다. In operation S204, the
S205 단계에서, 유효성 판단 장치(100)는 추출된 객체의 유효성을 판단한다. 이때, 대칭성 척도 값이 미리 정해진 제1 임계값보다 작으면 유효성 판단 장치(100)는 상기 객체의 추출을 유효한 것으로 판단한다.In operation S205, the
대칭성 척도 값이 제1 임계값보다 큰 경우 유효성 판단 장치(100)는 미리 정해진 제2 임계값과 비교하여(S207), 제2 임계값 보다 작으면 사용자의 조작에 의하여 객체의 적어도 일부 영역을 입력받고(S208), 제 2 임계값보다 크면 객체를 포함하는 영상을 재 입력받는다.(S209)
When the symmetry measure value is greater than the first threshold value, the
상술한 일 실시예에 따른 객체 영역의 유효성 판단 방법은 대칭성 기초로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 인식되어 객체가 비 대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공하여, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있는 장점이 있다. The method of determining the validity of the object region according to the above-described exemplary embodiment has an advantage of efficiently determining an object having symmetry because the validity of the object region is determined based on the symmetry. In addition, when only a part of the object is recognized and the object is asymmetrically extracted, the user can draw and select an unextracted area to reduce the process of re-evaluating the validity of the entire object. There is an advantage.
또한 상술한 실시예에 따른 객체 추출방법은 객체와 배경의 경계점 4점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로 기존 추출 방법에 비해 신속하게 객체를 추출을 수행할 수 있는 장점이 있다.
In addition, the object extraction method according to the above-described embodiment extracts the object using IS (Intelligent Scissor) algorithm at each of the four boundary points of the object and the background, so that the object can be extracted more quickly than the existing extraction method. have.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that
100 : 객체의 유효성 판단 장치
110 : 영상 입력부
120 : 객체 추출부
130 : 대칭성 척도 값 계산부
140 : 유효성 판단부 100: device for determining validity of an object
110: video input unit
120: object extraction unit
130: symmetry scale value calculation unit
140: validity judgment unit
Claims (16)
(a) 객체를 포함하는 영상을 입력받는 단계;
(b) 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 단계;
(c) 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 단계; 및
(d) 상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되,
상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 단계를 포함하는 객체 영역의 유효성 판단 방법.In the method of extracting the object from the image to determine the validity of the extracted object area,
(a) receiving an image including an object;
(b) extracting the object by detecting an outline of the object in the image;
(c) calculating a symmetry measure value for the extracted object; And
(d) determining the validity of the extracted object based on the symmetry measure value,
And determining that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value.
상기 대칭성 척도 값이 상기 제1임계값 보다 큰 경우 미리 정해진 제2임계값과 비교하여, 상기 제2임계값보다 큰 경우 상기 객체를 포함하는 영상을 재 입력받고, 상기 제2임계값보다 작은 경우 사용자의 조작에 의하여 상기 객체의 적어도 일부 영역을 입력받는 단계를 더 포함하는 객체 영역의 유효성 판단 방법.The method of claim 1, wherein step (d)
When the symmetry measure value is greater than the first threshold value, when compared with a second predetermined threshold value, when the value is greater than the second threshold value, the image including the object is input again, and when the value is smaller than the second threshold value. And receiving at least a partial area of the object by a user's manipulation.
상기 추출된 객체의 중심점으로부터 상기 객체의 윤곽선까지의 최대 거리 값을 가지는 좌표를 연결하는 직선과 상기 영상의 세로축 또는 가로축과의 각도를 계산하여 상기 계산된 각도만큼 상기 영상을 회전시키는 단계를 더 포함하는 객체 영역의 유효성 판단 방법. The method of claim 1, wherein after step (b)
And rotating the image by the calculated angle by calculating an angle between a straight line connecting a coordinate having a maximum distance value from a center point of the extracted object to a contour of the object and a vertical or horizontal axis of the image. How to determine the validity of the object area.
적응적 필터링 알고리즘에 의한 전처리 과정 및 IS(Intelligent Scissor) 알고리즘에 의해 수행되는 객체 영역의 유효성 판단 방법. The method of claim 1, wherein the detection of the contour
A method for determining validity of an object region performed by a preprocessing process by an adaptive filtering algorithm and an intelligent scissor (IS) algorithm.
(a) 상기 영상을 전처리하여 상기 객체 이외의 배경 영역에서 엣지(edge) 성분을 감소시키는 단계;
(b) 상기 영상에서 상기 객체를 통과하게끔 수직선 및 수평선을 생성하는 단계;
(c) 상기 수직선 및 상기 수평선이 상기 객체와 상기 배경과의 경계와 만나는 점 네 개를 선택하는 단계; 및
(d) 상기 각각의 네 점들로부터 상기 객체의 경계를 트래킹 하여 윤곽선을 검출하는 단계를 포함하는 객체를 추출 방법.In the method for extracting the object by detecting the contour of the object in the image,
(a) pre-processing the image to reduce edge components in the background region other than the object;
(b) generating vertical and horizontal lines through the object in the image;
(c) selecting four points where the vertical line and the horizontal line meet a boundary between the object and the background; And
(d) detecting an outline by tracking a boundary of the object from each of the four points.
상기 전처리는 적응적 필터링 알고리즘을 이용하여 수행되는 객체를 추출 방법.6. The method of claim 5,
Wherein said preprocessing is performed using an adaptive filtering algorithm.
상기 트래킹은 IS(Intelligent Scissor) 알고리즘을 이용하여 수행되는 객체를 추출 방법.6. The method of claim 5,
And the tracking is performed using an intelligent scissor (IS) algorithm.
상기 수직선 및 상기 수평선의 코스트 값(Local Cost, 이하LC값)이 급격하게 변하는 지점을 각각의 점으로 선택하는 객체를 추출 방법. 6. The method of claim 5, wherein the selection of each of the four points is
Extracting an object for selecting a point at which the cost value (LC value) of the vertical line and the horizontal line changes rapidly.
상기 각 점들은 상기 LC값이 최소인 점이며,
상기 LC값은 수식 LC = 1 + MG - G (여기서, G는 픽셀의 그레이언트(Gradient) 크기 값이고, MG는 전체 픽셀에서 최대 크기를 가지는 G값임)에 의해 계산되는 객체를 추출 방법. The method of claim 8,
Each of the points is the point at which the LC value is the minimum.
Wherein the LC value is calculated by the formula LC = 1 + MG-G, where G is the gradient size value of the pixel and MG is the G value having the maximum size in all pixels.
상기 LC값의 계산은 색 성분(RED, BLUE, GREEN)중에서 상기 객체에 가장 많이 포함된 색 성분 값을 기초로 하여 계산하는 객체를 추출 방법. The method of claim 8,
And calculating the LC value based on the color component values most included in the object among the color components (RED, BLUE, GREEN).
상기 대칭성 척도 값의 계산은 상기 추출된 객체의 중심축으로부터 상기 객체의 윤곽선까지의 거리 차이 값의 평균에 의해 계산되는 객체 영역의 유효성 판단 방법. The method of claim 1,
The method of determining the validity of the object region is calculated by the average of the distance difference value from the center axis of the extracted object to the contour of the object.
상기 중심축으로부터 상기 객체의 윤곽선까지의 거리를 정규화한 평균인 객체 영역의 유효성 판단 방법. 12. The method of claim 11, wherein said average is
The method of determining the validity of the object region which is an average obtained by normalizing the distance from the central axis to the contour of the object.
상기 중심축은 상기 추출된 객체에 대하여 수직인 축이거나 수평인 축인 객체 영역의 유효성 판단 방법. 12. The method of claim 11,
And the central axis is a vertical axis or a horizontal axis with respect to the extracted object.
수식 에 의하여 계산되고(여기서 R은 상기 대칭성 척도 값, VR은 세로축에 대한 대칭성 척도 값, HR은 가로축에 대한 대칭성 척도 값),
상기 VR 및 HR은 수식
;
(d1, d2는 세로축으로부터 상기 검출된 윤곽선까지의 거리 값, d3, d4는 가로축으로부터 상기 검출된 윤곽선까지의 거리 값)에 의해 계산되는 객체 영역의 유효성 판단 방법. 12. The method of claim 11 wherein the calculation of the symmetry measure value is
Equation (Where R is the symmetry measure value, VR is the symmetry measure value for the longitudinal axis, HR is the symmetry measure value for the abscissa),
The VR and HR formula
;
and d1 and d2 are distance values from a vertical axis to the detected contour, and d3 and d4 are distance values from a horizontal axis to the detected contour.
객체를 포함하는 영상을 입력받는 영상 입력부;
상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 객체 추출부;
상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 대칭성 척도 값 계산부; 및
상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되,
상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 유효성 판단부를 포함하는 객체 영역의 유효성 판단 장치.An apparatus for determining the validity of the extracted object region by extracting an object from an image,
An image input unit configured to receive an image including an object;
An object extracting unit extracting the object by detecting an outline of the object in the image;
A symmetry measure value calculator for calculating a symmetry measure value for the extracted object; And
The validity of the extracted object is determined based on the symmetry measure value.
And a validity determination unit that determines that the extraction of the object is valid when the symmetry measure value is smaller than a first predetermined threshold value.
상기 대칭성 척도 값이 상기 제1임계값 보다 큰 경우 미리 정해진 제2임계값과 비교하여, 상기 제2임계값보다 큰 경우 상기 객체를 포함하는 영상을 재 입력받고, 상기 제2임계값보다 작은 경우 사용자의 조작에 의하여 상기 객체의 적어도 일부 영역을 입력받는 객체 영역의 유효성 판단 장치.
The method of claim 15, wherein the validity determination unit
When the symmetry measure value is larger than the first threshold value, compared to a second predetermined threshold value, when the symmetry measure value is larger than the second threshold value, the image including the object is input again, and when the value is smaller than the second threshold value. An apparatus for determining validity of an object area receiving at least a partial area of the object by a user's manipulation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110100629A KR101274741B1 (en) | 2011-10-04 | 2011-10-04 | Method for validation of object boundaries and system of thereof, method for detection of object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110100629A KR101274741B1 (en) | 2011-10-04 | 2011-10-04 | Method for validation of object boundaries and system of thereof, method for detection of object |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130036511A true KR20130036511A (en) | 2013-04-12 |
KR101274741B1 KR101274741B1 (en) | 2013-06-17 |
Family
ID=48437798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110100629A KR101274741B1 (en) | 2011-10-04 | 2011-10-04 | Method for validation of object boundaries and system of thereof, method for detection of object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101274741B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200046177A (en) * | 2018-10-18 | 2020-05-07 | 네오컨버전스 주식회사 | Method and apparatus of designating an object for learning artificail intelligence |
KR102161679B1 (en) * | 2020-01-03 | 2020-10-05 | 주식회사 케이스랩 | Object recognition apparatus and method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4272538B2 (en) | 2004-01-05 | 2009-06-03 | 本田技研工業株式会社 | Moving object detection apparatus, moving object detection method, and moving object detection program |
KR100976142B1 (en) * | 2008-01-03 | 2010-08-16 | 전남대학교산학협력단 | detection method of road vehicles |
KR101038726B1 (en) * | 2009-03-18 | 2011-06-03 | (주)에스엔알 | High reliance auto surveillance method, device and system |
KR101033366B1 (en) * | 2009-09-17 | 2011-05-09 | 고려대학교 산학협력단 | A shape-based index construction and matching method for the efficient 3d object recognition |
-
2011
- 2011-10-04 KR KR1020110100629A patent/KR101274741B1/en not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200046177A (en) * | 2018-10-18 | 2020-05-07 | 네오컨버전스 주식회사 | Method and apparatus of designating an object for learning artificail intelligence |
KR102161679B1 (en) * | 2020-01-03 | 2020-10-05 | 주식회사 케이스랩 | Object recognition apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
KR101274741B1 (en) | 2013-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6719457B2 (en) | Method and system for extracting main subject of image | |
JP5554984B2 (en) | Pattern recognition method and pattern recognition apparatus | |
US10534957B2 (en) | Eyeball movement analysis method and device, and storage medium | |
EP3358298B1 (en) | Building height calculation method and apparatus, and storage medium | |
CA2867365C (en) | Method, system and computer storage medium for face detection | |
KR101283262B1 (en) | Method of image processing and device thereof | |
KR101322168B1 (en) | Apparatus for real-time face recognition | |
KR101272448B1 (en) | Apparatus and method for detecting region of interest, and the recording media storing the program performing the said method | |
US9613266B2 (en) | Complex background-oriented optical character recognition method and device | |
CN110264493A (en) | A kind of multiple target object tracking method and device under motion state | |
CN107423306B (en) | Image retrieval method and device | |
KR101139389B1 (en) | Video Analysing Apparatus and Method Using Stereo Cameras | |
WO2021004186A1 (en) | Face collection method, apparatus, system, device, and medium | |
WO2017000493A1 (en) | Live iris detection method and terminal | |
KR20140110586A (en) | Image matching apparatus, image matching system and image matching mehod | |
CN109255802B (en) | Pedestrian tracking method, device, computer equipment and storage medium | |
KR20150059701A (en) | Method for recognizing contectless fingerprint and electronic apparatus for performing the same. | |
JP2011113313A (en) | Attitude estimation device | |
JP2010205067A (en) | Device, method and program for extracting area | |
JP6338429B2 (en) | Subject detection apparatus, subject detection method, and program | |
CN106909916B (en) | Method for rapidly detecting and identifying sidewalk zebra crossing based on mobile phone platform | |
KR101541384B1 (en) | Device for Recognition of Object and method | |
CN103049911A (en) | Contour detection stability judging method and image searching method | |
CN113569707A (en) | Living body detection method, living body detection device, electronic apparatus, and storage medium | |
KR101274741B1 (en) | Method for validation of object boundaries and system of thereof, method for detection of object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160328 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170329 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |