KR101515926B1 - Method for object detection and apparatus thereof - Google Patents

Method for object detection and apparatus thereof Download PDF

Info

Publication number
KR101515926B1
KR101515926B1 KR1020130119953A KR20130119953A KR101515926B1 KR 101515926 B1 KR101515926 B1 KR 101515926B1 KR 1020130119953 A KR1020130119953 A KR 1020130119953A KR 20130119953 A KR20130119953 A KR 20130119953A KR 101515926 B1 KR101515926 B1 KR 101515926B1
Authority
KR
South Korea
Prior art keywords
hog
block
image
input image
similarity
Prior art date
Application number
KR1020130119953A
Other languages
Korean (ko)
Other versions
KR20150041428A (en
Inventor
이충희
임영철
김동영
박지호
김남혁
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020130119953A priority Critical patent/KR101515926B1/en
Publication of KR20150041428A publication Critical patent/KR20150041428A/en
Application granted granted Critical
Publication of KR101515926B1 publication Critical patent/KR101515926B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

형태 유사도 특징기반 객체 검출방법 및 장치가 개시된다. 본 발명에 따른 객체 검출장치는 입력 영상에 대한 전처리를 수행한 후, 상기 입력 영상을 일정 크기의 블록들로 분할하는 전처리부; 상기 입력 영상의 블록들에 대한 구배 벡터(gradient vector)들의 도수분포를 나타내는 HOG(Histogram of Oriented Gradients)를 제1 특징으로 산출하는 제1 특징 산출부; 상기 입력 영상에 포함되어 있는 객체의 좌우 대칭성을 이용하여 블록 별로 형태 유사도 기반의 제2 특징을 산출하는 제2 특징 산출부; 및 사전 학습 데이터를 참조하여, 상기 제1 특징 및 상기 제2 특징에 대응하는 대상 객체를 판정하는 객체 판정부를 포함한다.A method and apparatus for detecting a feature similarity-based object are disclosed. An object detection apparatus according to the present invention includes a preprocessor for performing preprocessing on an input image and then dividing the input image into blocks of a predetermined size; A first feature calculating unit for calculating HOG (Histogram of Oriented Gradients) representing a frequency distribution of gradient vectors for blocks of the input image as a first feature; A second feature calculating unit for calculating a second feature based on shape similarity for each block using the symmetry of the object included in the input image; And an object determining unit that determines the target object corresponding to the first characteristic and the second characteristic with reference to the learning data.

Description

객체 검출방법 및 이를 이용한 검출장치{Method for object detection and apparatus thereof}TECHNICAL FIELD The present invention relates to an object detecting method and an object detecting method using the object detecting method.

본 발명은 객체 검출방법 및 이를 이용한 검출장치에 관한 것으로서, 보다 상세하게는 형태 유사도 특징기반 객체 검출방법 및 장치에 관한 것이다.The present invention relates to an object detection method and a detection apparatus using the same, and more particularly, to a method and apparatus for detecting an object based on a shape similarity feature.

최근 다양한 산업분야에 영상기반 객체검출 기술을 적용하기 위한 연구가 활발하게 진행되고 있다. 객체 검출을 위해서는 적절한 특징을 추출하는 것이 상당히 중요하다. 일반적으로 객체 검출 성능을 향상시키기 위해서 intensity, edge, corner, color, disparity 등 다양한 특징들을 사용한다. 그 중에서도 edge는 외부 밝기 변화에 강인하고, 비교적 많은 정보를 포함하고 있어 많이 사용되는 특징 중에 하나이다. edge를 이용한 대표적인 특징 생성 방법으로는, edge의 크기 및 방향을 추출하고, 이를 히스토그램화하여 특징벡터로 사용하는 방법이 많이 사용된다.Recently, researches have been actively conducted to apply image-based object detection technology to various industrial fields. For object detection, it is important to extract appropriate features. In general, various features such as intensity, edge, corner, color, and disparity are used to improve object detection performance. Among them, the edge is robust against the change of the external brightness, and is one of the features widely used because it contains a relatively large amount of information. As a representative feature generation method using edges, a method of extracting the size and direction of an edge and histogramming it as a feature vector is widely used.

도 1에는 종래 기술에 따른 객체 검출용 특징의 생성방법이 도시된다. 1 shows a method of generating a feature for object detection according to the prior art.

대상 객체는 획득 영상에 대한 특징 벡터(feature vector)와 사전 학습 데이터(pre-learned data)의 비교를 통해 검출될 수 있는데, 이를 위해서는 획득 영상에서 특징 벡터를 구성하는 특징들을 생성해야 하고, 도 1은 전술한 특징들 중에서 HOG(Histogram of Oriented Gradients)를 이용하는 방법을 설명한다. The target object can be detected by comparing the feature vector of the acquired image with the pre-learned data. For this purpose, the features constituting the feature vector must be generated in the acquired image, Describes a method of using Histogram of Oriented Gradients (HOG) among the above-mentioned characteristics.

도 1을 참조하면, 입력되는 획득 영상으로부터 화소에 대한 구배 벡터(gradient vector)를 계산하고, 영상을 블록화한 후 블록 별로 각 구배 벡터에 대한 방향 정보(orientation)를 히스토그램으로 작성하여 이를 특징벡터로 사용한다. 이러한 방법은 특정한 객체, 즉 대표적으로 보행자와 같이 외부 형태가 중요한 특징을 갖는 객체에서 아주 유용한 특징으로 사용될 수 있다.Referring to FIG. 1, a gradient vector for a pixel is calculated from an input acquired image, an image is blocked, and orientation information for each gradient vector is generated as a histogram for each block, use. This method can be used as a very useful feature in a specific object, that is, an object in which an external form is important, such as a pedestrian.

획득 영상에서 각 화소별 구배 벡터에 대한 방향성 정도를 알 수 있어 객체 검출 성능을 향상시키는데 많은 도움이 된다. 다만, 특징 벡터로서 HOG만을 사용하는 경우에는 객체 검출의 정확도가 떨어질 수 있다. 특히, 객체의 외곽 정보를 그대로 사용하고 있어 추가적인 검출 성능 향상에는 무리가 있다.It is helpful to improve the object detection performance by knowing the degree of directionality of the gradient vector for each pixel in the acquired image. However, when only HOG is used as a feature vector, the accuracy of object detection may be lowered. Particularly, since the outline information of the object is used as it is, it is difficult to improve the detection performance.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여, 검출 대상이 되는 객체의 형태 유사도 특징을 특징 벡터로 사용하여 객체 검출 성능이 향상된 객체 검출 방법 및 이를 이용한 검출장치를 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The object of the present invention is to provide an object detection method and an object detection method using the object similarity feature of the object to be detected as a feature vector.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 면에 따른 객체 검출장치는 입력 영상에 대한 전처리를 수행한 후, 상기 입력 영상을 일정 크기의 블록들로 분할하는 전처리부; 상기 입력 영상의 블록들에 대한 구배 벡터(gradient vector)들의 도수분포를 나타내는 HOG(Histogram of Oriented Gradients)를 제1 특징으로 산출하는 제1 특징 산출부; 상기 입력 영상에 포함되어 있는 객체의 좌우 대칭성을 이용하여 블록 별로 형태 유사도 기반의 제2 특징을 산출하는 제2 특징 산출부; 및 사전 학습 데이터를 참조하여, 상기 제1 특징 및 상기 제2 특징에 대응하는 대상 객체를 판정하는 객체 판정부를 포함한다.According to an aspect of the present invention, there is provided an object detecting apparatus comprising: a preprocessor for performing preprocessing on an input image and dividing the input image into blocks of a predetermined size; A first feature calculating unit for calculating HOG (Histogram of Oriented Gradients) representing a frequency distribution of gradient vectors for blocks of the input image as a first feature; A second feature calculating unit for calculating a second feature based on shape similarity for each block using the symmetry of the object included in the input image; And an object determining unit that determines the target object corresponding to the first characteristic and the second characteristic with reference to the learning data.

바람직한 실시예에 있어서, 상기 제2 특징 산출부는 상기 입력 영상을 좌우 절반 구획으로 분할하고, 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행한다.In a preferred embodiment, the second feature calculator divides the input image into left and right halves and performs mirroring to invert left and right images of either the left or right image.

또한, 상기 제2 특징 산출부는 상기 미러링이 수행된 어느 일 측 영상과 타 측 영상에 대한 HOG의 유사도를 측정하여 상기 제2 특징을 산출한다.In addition, the second feature calculating unit calculates the second feature by measuring the degree of similarity of the HOG with respect to the one side image and the other side image on which the mirroring is performed.

또한, 상기 제2 특징 산출부는 상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG를 비교하여 유사도를 측정한다.The second feature calculating unit compares the HOG of the first block of the one-side image with the HOG of the second block located at a position corresponding to the first block of the other image to measure the similarity.

일 실시예로서, 상기 제2 특징 산출부는 L1-norm, L2-norm, 히스토그램 인터섹션(Histogram intersection), Chi-square distance 중 어느 하나의 방법을 이용하여 HOG의 유사도를 측정한다.In one embodiment, the second feature calculator measures the similarity of the HOG using one of L1-norm, L2-norm, histogram intersection, and Chi-square distance.

일 실시예로서, 상기 제2 특징 산출부는 상기 입력 영상에서 검출 대상이 되는 객체의 종류에 따라 블록의 위치 별로 가중치를 달리 적용하여 형태 유사도 기반의 제2 특징을 산출한다.In one embodiment, the second feature calculating unit calculates a second feature based on the shape similarity by applying different weights to the positions of the blocks according to the types of objects to be detected in the input image.

바람직한 실시예에 있어서, 상기 제1 특징 산출부는 상기 블록들 각각에 대해 구배 강도 및 구배 방향을 산출하고, 상기 구배 강도 및 상기 구배 방향을 이용하여 상기 HOG를 산출하는 HOG 산출모듈을 포함한다. In a preferred embodiment, the first feature calculation unit includes a HOG calculation module that calculates the gradient strength and gradient direction for each of the blocks, and calculates the HOG using the gradient strength and the gradient direction.

바람직한 실시예에 있어서, 상기 제2 특징 산출부는 상기 입력 영상을 좌우 절반 구획으로 분할하고, 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하는 미러링 수행 모듈; 및 상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG사이의 유사도를 측정하는 유사도 측정 모듈을 포함하되, 상기 유사도 측정 모듈은 상기 입력 영상에서 검출 대상이 되는 객체의 종류 및 상기 제1 블록 및 상기 제2 블록의 위치에 따라 가중치를 달리 적용하여 유사도를 측정한다.In a preferred embodiment, the second feature calculating unit includes a mirroring module for dividing the input image into left and right halves, and performing mirroring for inverting left and right images of either the left or right image; And a similarity measurement module that measures a similarity between the HOG of the first block of the one side image and the HOG of the second block that is located at a position corresponding to the first block of the other side image, The degree of similarity is measured by applying different weights according to the type of the object to be detected and the position of the first block and the second block in the input image.

전술한 목적을 달성하기 위한 본 발명의 다른 면에 따른 객체 검출방법은 입력 영상에 대한 전처리를 수행한 후, 상기 입력 영상을 일정 크기의 블록들로 분할하는 단계; 상기 입력 영상의 블록들에 대한 구배 벡터(gradient vector)들의 도수분포를 나타내는 HOG(Histogram of Oriented Gradients)를 제1 특징으로 산출하는 단계; 상기 입력 영상을 좌우 절반 구획으로 분할하고, 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하는 미러링 수행 단계; 상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG사이의 유사도를 측정하여 제2 특징을 산출하는 단계; 및 사전 학습 데이터를 참조하여, 상기 제1 특징 및 상기 제2 특징에 대응하는 대상 객체를 판정하는 단계를 포함한다.According to another aspect of the present invention, there is provided an object detecting method comprising: pre-processing an input image and dividing the input image into blocks of a predetermined size; Calculating HOG (Histogram of Oriented Gradients) representing a frequency distribution of gradient vectors for blocks of the input image as a first characteristic; A mirroring step of dividing the input image into left and right halves and performing mirroring to invert left and right images of either the left or right image; Calculating a second characteristic by measuring a degree of similarity between a HOG of a first block of the one-side image and a HOG of a second block located at a position corresponding to the first block of the other side image; And determining a target object corresponding to the first characteristic and the second characteristic by referring to the dictionary learning data.

이상 상술한 바와 같은 본 발명에 따르면, HOG 및 객체 자체의 형태 유사도 특징 정보를 이용하여 특징 벡터를 구성함으로써 객체 검출의 정확도를 높일 수 있다.According to the present invention as described above, the accuracy of object detection can be improved by constructing a feature vector using the feature similarity information of the HOG and the object itself.

도 1에는 종래 기술에 따른 객체 검출용 특징의 생성방법을 설명하기 위한 예시도.
도 2는 본 발명의 실시예에 따른 객체 검출장치를 보여주는 블록 구성도.
도 3은 본 발명의 실시예에서 획득 영상을 구성하는 화소들에 대한 HOG 특징을 생성하는 일 예를 보여주는 도면.
도 4는 본 발명의 실시예에서 형태 유사도 기반 특징을 생성하는 일 예를 보여주는 도면.
도 5는 도 4에서 형태 유사도 기반 특징을 생성할 때 적용되는 가중치를 생성하는 일 예를 보여주는 도면.
도 6는 본 발명의 실시예에 따른 객체 검출방법을 설명하기 위한 순서도.
1 is an exemplary diagram for explaining a method of generating a feature for object detection according to the prior art;
2 is a block diagram showing an object detecting apparatus according to an embodiment of the present invention;
FIG. 3 illustrates an example of generating a HOG feature for pixels constituting an acquired image in an exemplary embodiment of the present invention; FIG.
Figure 4 illustrates an example of generating a shape similarity-based feature in an embodiment of the present invention.
FIG. 5 illustrates an example of generating a weight applied when generating a shape similarity-based feature in FIG. 4; FIG.
6 is a flowchart for explaining an object detection method according to an embodiment of the present invention;

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 2는 본 발명의 실시예에 따른 객체 검출장치를 보여주는 블록 구성도이다.2 is a block diagram showing an object detecting apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명에 따른 객체 검출장치는 영상 획득부(image acquisition unit, 110), 특징 벡터 산출부(feature vector calculation unit, 130), 사전 학습 데이터 저장부(pre-learned data storage unit, 140) 및 객체 판정부(object judgment unit, 150)를 포함하여 구성된다.2, an object detection apparatus according to the present invention includes an image acquisition unit 110, a feature vector calculation unit 130, a pre-learned data storage unit , 140, and an object judgment unit (150).

영상 획득부(110)는 대상 객체(target objet)를 포함하는 영상을 외부 장치로부터 획득한다. 예를 들어, 영상 획득부(110)는 촬상 장치, 영상 저장 장치 등으로부터 제공되는 영상을 획득할 수 있다. 영상 획득부(110)는 획득 영상에 대한 전처리를 수행한다.The image obtaining unit 110 obtains an image including a target objet from an external device. For example, the image acquisition unit 110 may acquire an image provided from an image pickup apparatus, an image storage apparatus, and the like. The image acquiring unit 110 performs preprocessing on the acquired image.

예컨대, 도 3의 (b)에 도시된 바와 같이, 영상 획득부(110)는 획득 영상에 대해 색상보정을 수행한다. 대표적인 방법으로는 감마 보정방법이 있다. 또한, 영상 획득부(110)는 획득 영상의 화소별로 구배 벡터를 구하고, 구배 벡터의 강도(magnitude) 및 방향 정보(orientation)를 산출한다(도 3의 (c) 참조). 예컨대, 소벨, 캐니 등과 같은 방법이 구배 벡터를 구하는데 사용될 수 있다. 다음으로 가우시안 가중치가 구배 벡터에 적용되는데(도 3의 (d) 참조), 이는 향후 구배 벡터의 강도(크기) 및 방향을 화소별로 비교하지 않고, 일정 크기의 블록 별로 비교하는데 블록의 중앙 부분의 특징은 가중치를 높게 하고, 블록 외곽의 특징은 가중치를 낮게 하여, 객체 검출 성능을 향상시키기 위함이다. 다음으로, 영상을 분할하는데, 여기서 영상 획득부(110)는 획득 영상을 크게 몇 개의 구역으로 나누고, 구역 별로 다시 다수의 블록으로 나눈다. For example, as shown in FIG. 3 (b), the image obtaining unit 110 performs color correction on an acquired image. A typical method is gamma correction. Also, the image obtaining unit 110 obtains a gradient vector for each pixel of the acquired image, and calculates the magnitude and orientation of the gradient vector (see (c) of FIG. 3). For example, methods such as Sobel, Canny, and the like can be used to obtain gradient vectors. Next, the Gaussian weight is applied to the gradient vector (see FIG. 3 (d)). This is because the strength (size) and the direction of the gradient vector are not compared for each pixel, The feature is to increase the weight, and the feature of the block edge is to lower the weight, so as to improve the object detection performance. The image acquiring unit 110 divides the acquired image into a plurality of blocks and divides the acquired blocks into a plurality of blocks.

예컨대, 도 3에 도시된 바와 같이 영상 획득부(110)는 획득 영상을 좌우 절반 구획으로 분할하고, 이를 다시 상하 절반 구획으로 분할하여 총 4개의 구획(A,B,C,D)으로 획득 영상을 나눌 수 있다. 이후, 영상 획득부(110)는 각 구획을 일정 크기의 블록으로 분할한다.For example, as shown in FIG. 3, the image obtaining unit 110 divides an acquired image into left and right halves, divides the obtained image into upper and lower halves, and obtains the acquired images with a total of four halves A, B, C, Can be divided. Then, the image obtaining unit 110 divides each block into blocks of a predetermined size.

영상의 구획 분리 및 블록 분할은 영상 획득부(110)가 수행하는 것으로 전술하였지만, 그 수행의 주체는 영상 획득부(110)에만 한정되지 않는다. 연산 처리의 효율을 위해, 구획 분리 및 블록 분할과 같은 전처리 프로세스는 후술할 제1 특징 산출부 또는 제2 특징 산출부에서 수행될 수 있다.Although the segment division and the block segmentation of the image are performed by the image acquisition unit 110, the subject of the performance is not limited to the image acquisition unit 110. [ For the efficiency of the arithmetic processing, a preprocessing process such as partitioning and block division may be performed in the first feature calculating unit or the second feature calculating unit, which will be described later.

특징 벡터 산출부(130)는 획득 영상에서 블록 별로 특징 벡터를 산출한다. 일반적으로, 특징 벡터는 HOG(Histogram of Oriented Gradients)만으로 구성된다. 여기서, HOG는 복수의 블록들에 대응하는 구배 벡터(gradient vector)들의 도수 분포를 나타내는 히스토그램을 말한다. 그러나, 본 발명의 실시 예에 따른 특징 벡터는 HOG뿐만 아니라 형태 유사도 기반 특징을 이용하여 산출된다. 여기서, 형태 유사도 기반 특징은 검출 대상이 되는 객체의 좌우 대칭 또는 상하 대칭 유사성 정보를 의미한다.The feature vector calculator 130 calculates a feature vector for each block in the acquired image. In general, the feature vector consists only of HOG (Histogram of Oriented Gradients). Here, HOG refers to a histogram representing the frequency distribution of gradient vectors corresponding to a plurality of blocks. However, the feature vector according to the exemplary embodiment of the present invention is calculated using not only HOG but also feature based on shape similarity. Here, the feature based on the shape similarity means the left-right symmetry or the up-down symmetry similarity information of the object to be detected.

특징 벡터 산출부(130)는 제1 특징 산출부(131), 제2 특징 산출부(132)를 포함한다.The feature vector calculating unit 130 includes a first feature calculating unit 131 and a second feature calculating unit 132. [

제1 특징 산출부(131)는 블록 별로 HOG를 산출하기 위해 화소별로 산출된 구배 벡터들에 기초하여 블록 별 HOG를 산출한다.The first feature calculating unit 131 calculates the HOG for each block based on the gradient vectors calculated for each pixel to calculate the HOG for each block.

예컨대, 획득 영상은 복수의 블록들로 분할된다. 예시적으로 4개의 블록들(2×2의 영역들)로 분할될 수 있으나, 블록들의 수는 이에 한정되지 않고, 획득 영상은 다양한 수의 블록들로 분할될 수 있다.For example, the acquired image is divided into a plurality of blocks. But the number of blocks is not limited to this, and the acquired image may be divided into various numbers of blocks.

특징 벡터를 구성하는 HOG들은 복수의 블록들에 대해 각각 산출된다. 즉, 특징 벡터를 구성하는 HOG들의 수는 블록들의 수에 대응한다. 이하에서, 하나의 블록에 대한 HOG를 산출하기 위해 사용되는 구배 벡터들의 산출이 예시적으로 설명될 것이다.The HOGs constituting the feature vector are calculated for each of a plurality of blocks. That is, the number of HOGs constituting the feature vector corresponds to the number of blocks. Hereinafter, the calculation of the gradient vectors used to calculate the HOG for one block will be exemplarily described.

하나의 블록은 복수의 화소들을 포함한다. 예컨대, 16개의 화소들(4×4의 화소들)이 하나의 블록을 구성할 수 있고, 이에 한정되지 않고, 다양한 수의 화소들을 포함할 수 있다. 예를 들어, 하나의 블록의 크기는 8×8의 화소들, 16×16의 화소들로 정의될 수 있다.One block includes a plurality of pixels. For example, 16 pixels (4x4 pixels) may constitute one block, and it is not limited thereto and may include various numbers of pixels. For example, the size of one block may be defined as 8x8 pixels, 16x16 pixels.

구배 벡터들은 복수의 화소들에 대해 각각 산출된다. 다만, 각 구배 벡터의 산출 시에, 각 구배 벡터에 대응하는 화소(이하, “대상 화소”라고 칭함)에 인접하는 화소들이 고려되므로, 블록의 가장자리에 위치하는 화소들에 대해서는 구배 벡터의 산출이 생략될 수 있다.Gradient vectors are calculated for each of a plurality of pixels. However, since the pixels adjacent to the pixel corresponding to each gradient vector (hereinafter referred to as " target pixel ") are considered at the time of calculating each gradient vector, the calculation of the gradient vector is performed for the pixels positioned at the edge of the block Can be omitted.

복수의 화소들에 대한 구배 벡터들은 HOG를 산출하는 데 사용된다. HOG의 계급은 구배 방향의 범위(0도 내지 180도)에 대한 양자화된 구간을 의미한다. 그리고, HOG의 도수는 HOG 의 계급에 따른 구배 강도들의 누적 수치를 의미한다.The gradient vectors for the plurality of pixels are used to calculate the HOG. The rank of HOG means the quantized interval for the range of gradient directions (0 to 180 degrees). The frequency of the HOG means the cumulative value of the gradient intensities according to the class of the HOG.

예컨대 HOG는 8개의 계급들을 갖도록 구현될 수 있으며, HOG의 계급들의 수는 이에 한정되지 않고, HOG는 다양한 수의 계급들을 가질 수 있다.For example, the HOG may be implemented to have eight ranks, the number of ranks of the HOG is not limited thereto, and the HOG may have various ranks.

예컨대, 어느 하나의 블록을 구성하는 화소들에 대해 0도의 구배 방향을 갖는 12개의 구배 벡터들과 90도의 구배 방향을 갖는 4개의 구배 벡터들이 산출될 수 있다. 이때, 이 블록에 대한 HOG는 각 계급의 구배 방향에 대한 화소들의 도수 분포로 생성될 것이다.For example, for the pixels constituting any one block, 12 gradient vectors having a gradient direction of 0 degrees and 4 gradient vectors having a gradient direction of 90 degrees can be calculated. At this time, the HOG for this block will be generated as the frequency distribution of pixels for the gradient direction of each class.

제2 특징 산출부(132)는 획득 영상에 포함되어 있는 객체의 좌우 대칭성을 이용하여 블록 별로 형태 유사도 기반의 제2 특징을 산출한다.The second characteristic calculating unit 132 calculates the second characteristic based on the shape similarity based on the symmetry of the object included in the acquired image.

구체적으로 설명하면, 도 4의 (f)에 도시된 바와 같이 상기 제2 특징 산출부(132)는 좌우 절반 구획으로 분할된 상기 입력 영상에서 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하고, 상기 미러링이 수행된 어느 일 측 영상과 타 측 영상에 대한 HOG의 유사도를 측정하여 상기 제2 특징을 산출한다.4 (f), the second feature calculating unit 132 may invert the left and right images of the left image or the right image in the input image divided into left and right half sections, And calculates the second characteristic by measuring the degree of similarity of the HOG with respect to the one side image and the other side image on which the mirroring is performed.

이때, 상기 제2 특징 산출부(132)는 상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG를 비교하여 유사도를 측정하고, 유사도 측정은 L1-norm, L2-norm, 히스토그램 인터섹션(Histogram intersection), Chi-square distance 중 어느 하나의 방법이 이용될 수 있다.At this time, the second feature calculating unit 132 compares the HOG of the first block of the one-side image with the HOG of the second block located at the position corresponding to the first block of the other image, , And the degree of similarity may be measured by any one of L1-norm, L2-norm, histogram intersection, and Chi-square distance.

도 4의 (f)를 참조하여 설명하면, 상기 제2 특징 산출부(132)는 먼저 구역 B와 D에 대한 미러링을 수행한다. 그리고 각 블록 별로 HOG를 계산하여 블록별 HOG를 비교하는데, 비교 대상의 짝은 도시된 바와 같이 구역 내에서 블록의 위치 순서에 따른다. 즉, A 구역과 B 구역, C 구역과 D 구역이 비교되는데, 각 구역 내에서는 블록의 위치에 따라 서로 상응하는 위치에 있는 블록의 HOG가 비교된다. Referring to FIG. 4 (f), the second feature calculating unit 132 first performs mirroring on the regions B and D. FIG. Then, HOG is calculated for each block to compare the HOG for each block. The comparison target corresponds to the order of blocks in the block as shown in the figure. In other words, the A zone and the B zone, the C zone and the D zone are compared. In each zone, the HOGs of blocks corresponding to each other are compared according to the positions of the blocks.

이때, 상기 획득 영상에서 검출 대상이 되는 객체의 종류에 따라 블록의 위치 별로 가중치를 달리 적용하여 HOG의 유사도가 산출된다. 이로 인해 형태 유사도 기반의 제2 특징의 성능이 향상될 수 있는데 이에 대한 설명은 도 5를 참조하여 구체적으로 설명한다.At this time, the degree of similarity of the HOG is calculated by applying different weights to the positions of the blocks according to the types of objects to be detected in the acquired image. Thus, the performance of the second feature based on the shape similarity can be improved, and a description thereof will be specifically described with reference to FIG.

도 5는 도 4에서 형태 유사도 기반 특징을 생성할 때 적용되는 가중치를 생성하는 일 예를 보여주는 도면이다.FIG. 5 is a view showing an example of generating a weight to be applied when generating a shape similarity-based feature in FIG.

도 5를 참조하면, 가중치는 수평라인 내 영역별 가중치(a)와 구역내 가중치(b)를 포함한다.Referring to FIG. 5, the weight includes a weight (a) and an intra-region weight (b) in the horizontal line.

이와 같은 가중치는 검출 대상이 되는 객체의 종류에 따라 달라지게 되는데 예컨대, 검출 대상의 객체가 보행자인 경우, 수평라인 별 최고 가중치 라인은 노란색으로 표시된다. 즉 보행자의 외곽선은 노란색 주변에 존재할 확률이 높기 때문에 이 부근의 히스토그램 비교 값이 객체 검출을 위한 중요 데이터로 사용된다. 따라서, 이 부근에 대한 HOG의 가중치를 높게 반영하여 형태 유사도 기반 특징을 산출하는데 이용한다. For example, when the object to be detected is a pedestrian, the highest weighting line for each horizontal line is displayed in yellow. In other words, since the outline of the pedestrian is likely to be around yellow, the histogram comparison value in this vicinity is used as important data for object detection. Therefore, it is used to calculate the feature similarity based on the degree of HOG.

또한, 도 5에 도시된 바와 같이 수평라인의 위치(d)에 따라서 가중치(p)가 달리 적용되고 혹은 수직 블록 별로도 가중치를 달리 적용한다. 최고 가중치 라인은 객체의 형태 별로 변경되어 적용될 수 있다. Also, as shown in FIG. 5, the weight p is applied differently according to the position d of the horizontal line, or the weight is applied to each vertical block differently. The highest weighted line can be changed and applied to the shape of the object.

한편, 구역내 가중치(b)에 대해서 설명하면, 검출 대상이 되는 객체가 보행자인 경우 하반신 구역(C, D 구역)은 보행자의 걷는 수준, 포즈에 따라서 HOG 값의 변화 정도가 크지만, 상반신 구역(A, B 구역)은 비교적 강건하게 변하지 않는다. 따라서, 특징 값으로 사용할 때, 상반신의 HOG 비교 값은 비교적 높게 사용하고(q), 하반신의 HOG 비교 값은 낮게 사용하여(r) 보행자의 전체적인 형상 특징을 최대한 반영한다. 이 역시 객체의 형태 및 종류에 따라 변경되어 적용될 수 있다.In the case where the object to be detected is a pedestrian, the degree of change of the HOG value is large according to the walking level and pose of the pedestrian in the lower half zone (zones C and D) (Areas A and B) do not change relatively strongly. Therefore, when used as a feature value, the HOG comparison value of the upper half body is relatively high (q) and the HOG comparison value of the lower half body is low (r) to fully reflect the overall shape characteristic of the pedestrian. This can also be changed depending on the type and type of the object.

전술한 프로세스를 수행하기 위한 구성으로, 상기 제2 특징 산출부(132)는 상기 입력 영상을 좌우 절반 구획으로 분할하고, 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하는 미러링 수행 모듈; 및 상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG사이의 유사도를 측정하는 유사도 측정 모듈로 구성될 수 있다.The second feature calculating unit 132 divides the input image into left and right halves and performs mirroring to invert left and right images of either the left or right image, A mirroring module for performing mirroring; And a similarity measuring module for measuring a similarity between the HOG of the first block of the one side image and the HOG of the second block located at a position corresponding to the first block of the other side image.

이때, 상기 유사도 측정 모듈은 상기 입력 영상에서 검출 대상이 되는 객체의 종류 및 상기 제1 블록 및 상기 제2 블록의 위치에 따라 가중치를 달리 적용하여 유사도를 측정한다.At this time, the similarity measurement module measures the similarity by applying different weights according to the type of the object to be detected and the position of the first block and the second block in the input image.

사전 학습 데이터 저장부(140)는 인체, 차량 등과 같은 다양한 객체들에 대한 사전 학습 데이터를 저장한다. 사전 학습 데이터 저장부(140)는 대상 객체 판정을 위한 참조 정보로서 사전 학습 데이터를 객체 판정부(150)에 전달한다.The pre-learning data storage unit 140 stores pre-learning data for various objects such as a human body, a vehicle, and the like. The pre-learning data storage unit 140 delivers the pre-learning data to the object determining unit 150 as reference information for determining a target object.

사전 학습 데이터는 객체들의 패턴 정보 및 식별 정보 등을 포함한다. 여기서, 패턴 정보는 특징 벡터와의 비교 대상이 되는 정보를 의미하고, 식별 정보는 객체들의 명칭, 종류, 크기 등과 같이 객체들의 고유 특성을 나타내기 위한 정보를 의미한다.The pre-learning data includes pattern information and identification information of objects. Here, the pattern information refers to information to be compared with the feature vector, and the identification information refers to information for indicating the intrinsic characteristics of the objects such as the name, type, and size of the objects.

한편, 사전 학습 데이터는 객체들의 고유 패턴에 대한 반복적인 학습을 통해 생성될 수 있다. 이때, 아다부스트(Adaboost), SVM(Support Vector Machine) 등과 같은 기계 학습 알고리즘이 사전 학습 데이터를 생성하기 위해 적용될 수 있다.On the other hand, the pre-learning data can be generated through iterative learning of a unique pattern of objects. At this time, a machine learning algorithm such as Adaboost, SVM (Support Vector Machine) and the like can be applied to generate the prior learning data.

객체 판정부(150)는 사전 학습 데이터를 참조하여 특징 벡터에 대응하는 대상 객체가 무엇인지를 판정한다. 그리고, 객체 판정부(150)는 대상 객체에 대한 판정 결과를 출력한다. 예를 들어, 특징 벡터와 일치하는 패턴 정보가 사전 학습 데이터에 포함되어 있는 경우, 객체 판정부(150)는 검출 성공 알림 정보 및 패턴 정보에 대응하는 대상 객체의 식별 정보를 판정 결과로서 출력할 수 있다. 이와 달리, 특징 벡터와 일치하는 패턴 정보가 사전 학습 데이터에 포함되어 있지 않은 경우, 객체 판정부(150)는 검출 실패 알림 정보를 판정 결과로서 출력할 수 있다. 이러한 판정 결과는 외부 표시 장치, 저장 장치 등에 제공될 수 있다.The object determining unit 150 determines what the target object corresponds to the feature vector by referring to the prior learning data. Then, the object determining unit 150 outputs the determination result for the target object. For example, when the pattern information matching the feature vector is included in the prior learning data, the object determining unit 150 can output the detection success notice information and the identification information of the target object corresponding to the pattern information as a determination result have. Alternatively, when the pattern information matching the feature vector is not included in the prior learning data, the object determining unit 150 may output the detection failure notification information as the determination result. The determination result may be provided to an external display device, a storage device, or the like.

도 6는 본 발명의 실시예에 따른 객체 검출방법을 설명하기 위한 순서도이다.6 is a flowchart illustrating an object detection method according to an embodiment of the present invention.

도 6을 참조하면, 단계 S10에서, 대상 객체를 포함하는 영상이 획득되고, 획득된 영상에 대해 S20에서 전처리 과정이 수행된다. 예컨대, 획득 영상에 대해 색상보정 화소별로 구배 벡터를 산출, 가우시안 가중치를 구배 벡터에 적용, 획득 영상 분할 등의 전처리 과정이 수행될 수 있는데 이에 대한 구체 설명은 도 2 내지 도 5를 참조하여 전술하였으며 이하에서는 생략하도록 한다.Referring to FIG. 6, in step S10, an image including a target object is acquired, and a preprocessing process is performed on the acquired image in S20. For example, a preprocessing process such as calculating a gradient vector for each color correction pixel, applying a Gaussian weight to a gradient vector, and dividing an acquired image may be performed on the acquired image, and a specific description thereof has been described with reference to FIGS. 2 to 5 It will be omitted in the following.

단계 S30에서, 객체 검출을 위한 특징 벡터를 산출한다. 구체적으로 설명하면, 상기 S30 단계는 상기 입력 영상의 블록들에 대한 구배 벡터(gradient vector)들의 도수분포를 나타내는 HOG(Histogram of Oriented Gradients)를 제1 특징으로 산출하는 단계와, 상기 입력 영상을 좌우 절반 구획으로 분할하고, 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하는 미러링 수행 단계와, 상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG사이의 유사도를 측정하여 제2 특징을 산출하는 단계를 포함한다. In step S30, a feature vector for object detection is calculated. More specifically, the step S30 may include calculating HOG (Histogram of Oriented Gradients) representing a frequency distribution of gradient vectors for blocks of the input image as a first characteristic, A mirroring step of dividing the left side image and the right side image of the one-side image into half sections and performing mirroring to invert left and right images of either the left image or the right image; And calculating a second characteristic by measuring a degree of similarity between the HOGs of the second block at a position corresponding to the first block.

여기서, 상기 입력 영상에서 검출 대상이 되는 객체의 종류 및 상기 제1 블록 및 상기 제2 블록의 위치에 따라 가중치를 달리 적용하여 유사도가 측정될 수 있다.The degree of similarity may be measured by applying different weights according to the type of the object to be detected and the position of the first block and the second block in the input image.

단계 S40에서, 사전 학습 데이터를 참조하여, 상기 제1 특징 및 상기 제2 특징에 대응하는 대상 객체를 판정한다.In step S40, referring to the pre-learning data, a target object corresponding to the first characteristic and the second characteristic is determined.

한편, 상술한 본 발명에 따른 객체 검출방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the object detection method according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, there may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device and the like. The computer-readable recording medium may also be distributed and executed in a computer system connected to a computer network and stored and executed as a code that can be read in a distributed manner.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

110: 영상 획득부(전처리부) 130: 특징벡터 산출부
131: 제1 특징 산출부 132: 제2 특징 산출부
140: 사전학습 데이터 저장부 150: 객체 판정부
110: image acquiring unit (preprocessing unit) 130: feature vector calculating unit
131: First feature calculating unit 132: Second feature calculating unit
140: dictionary learning data storage unit 150: object determination unit

Claims (10)

입력 영상에 대한 전처리를 수행한 후, 상기 입력 영상을 일정 크기의 블록들로 분할하는 전처리부;
상기 입력 영상의 블록들에 대한 구배 벡터(gradient vector)들의 도수분포를 나타내는 HOG(Histogram of Oriented Gradients)를 제1 특징으로 산출하는 제1 특징 산출부;
상기 입력 영상에 포함되어 있는 객체의 좌우 대칭성을 이용하여 블록 별로 형태 유사도 기반의 제2 특징을 산출하는 제2 특징 산출부; 및
사전 학습 데이터를 참조하여, 상기 제1 특징 및 상기 제2 특징에 대응하는 대상 객체를 판정하는 객체 판정부를 포함하되,
상기 제2 특징 산출부는, 상기 입력 영상에서 검출 대상이 되는 객체의 종류에 따라 블록의 위치 별로 가중치를 달리 적용하여 형태 유사도 기반의 제2 특징을 산출하는 것
인 객체 검출장치.
A preprocessor for performing preprocessing on the input image and dividing the input image into blocks of a predetermined size;
A first feature calculating unit for calculating HOG (Histogram of Oriented Gradients) representing a frequency distribution of gradient vectors for blocks of the input image as a first feature;
A second feature calculating unit for calculating a second feature based on shape similarity for each block using the symmetry of the object included in the input image; And
And an object determining unit that determines a target object corresponding to the first characteristic and the second characteristic by referring to the prior learning data,
The second feature calculating unit may calculate the second feature based on the shape similarity by applying different weights to the positions of the blocks according to the types of objects to be detected in the input image
/ RTI >
제1항에 있어서, 상기 제2 특징 산출부는,
좌우 절반 구획으로 분할된 상기 입력 영상에서 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하는 것
인 객체 검출장치.
The apparatus according to claim 1,
Mirroring is performed to invert the left and right images of either the left image or the right image in the input image divided into left and right half sections
/ RTI >
제2항에 있어서, 상기 제2 특징 산출부는,
상기 미러링이 수행된 어느 일 측 영상과 타 측 영상에 대한 HOG의 유사도를 측정하여 상기 제2 특징을 산출하는 것
인 객체 검출장치.
3. The apparatus according to claim 2,
And calculating the second characteristic by measuring the degree of similarity of the HOG with respect to the one side image and the other side image on which the mirroring is performed
/ RTI >
제3항에 있어서, 상기 제2 특징 산출부는,
상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG를 비교하여 유사도를 측정하는 것
인 객체 검출장치.
4. The apparatus according to claim 3,
And comparing the HOG of the first block of the one side image with the HOG of the second block located at the position corresponding to the first block of the other side image to measure the similarity
/ RTI >
제3항에 있어서, 상기 제2 특징 산출부는,
L1-norm, L2-norm, 히스토그램 인터섹션(Histogram intersection), Chi-square distance 중 어느 하나의 방법을 이용하여 HOG의 유사도를 측정하는 것
인 객체 검출장치.
4. The apparatus according to claim 3,
The similarity of HOG is measured by using one of L1-norm, L2-norm, histogram intersection and Chi-square distance
/ RTI >
삭제delete 제1항에 있어서, 상기 제1 특징 산출부는,
상기 블록들 각각에 대해 구배 강도 및 구배 방향을 산출하고, 상기 구배 강도 및 상기 구배 방향을 이용하여 상기 HOG를 산출하는 HOG 산출모듈을 포함하는 것
인 객체 검출장치.
2. The apparatus according to claim 1,
And a HOG calculation module for calculating a gradient strength and a gradient direction for each of the blocks and calculating the HOG using the gradient strength and the gradient direction
/ RTI >
제1항에 있어서, 상기 제2 특징 산출부는,
상기 입력 영상을 좌우 절반 구획으로 분할하고, 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하는 미러링 수행 모듈; 및
상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG사이의 유사도를 측정하는 유사도 측정 모듈을 포함하되,
상기 유사도 측정 모듈은 상기 입력 영상에서 검출 대상이 되는 객체의 종류 및 상기 제1 블록 및 상기 제2 블록의 위치에 따라 가중치를 달리 적용하여 유사도를 측정하는 것
인 객체 검출장치.
The apparatus according to claim 1,
A mirroring module for dividing the input image into left and right halves and performing mirroring for inverting left and right images of either the left or right image; And
And a similarity measuring module for measuring a similarity between the HOG of the first block of the one-side image and the HOG of the second block located at a position corresponding to the first block of the other image,
The similarity measurement module measures the similarity by applying different weights according to the type of object to be detected and the position of the first block and the second block in the input image
/ RTI >
입력 영상에 대한 전처리를 수행한 후, 상기 입력 영상을 일정 크기의 블록들로 분할하는 단계;
상기 입력 영상의 블록들에 대한 구배 벡터(gradient vector)들의 도수분포를 나타내는 HOG(Histogram of Oriented Gradients)를 제1 특징으로 산출하는 단계;
상기 입력 영상을 좌우 절반 구획으로 분할하고, 좌측 영상 또는 우측 영상 중 어느 하나의 영상의 좌우를 반전하는 미러링(mirroring)를 수행하는 미러링 수행 단계;
상기 일 측 영상의 제1 블록의 HOG와, 상기 타 측 영상의 상기 제1 블록에 대응되는 위치에 있는 제2 블록의 HOG사이의 유사도를 측정하여 제2 특징을 산출하는 단계; 및
사전 학습 데이터를 참조하여, 상기 제1 특징 및 상기 제2 특징에 대응하는 대상 객체를 판정하는 단계
를 포함하는 객체 검출방법.
Performing preprocessing on an input image and dividing the input image into blocks of a predetermined size;
Calculating HOG (Histogram of Oriented Gradients) representing a frequency distribution of gradient vectors for blocks of the input image as a first characteristic;
A mirroring step of dividing the input image into left and right halves and performing mirroring to invert left and right images of either the left or right image;
Calculating a second characteristic by measuring a degree of similarity between a HOG of a first block of the one-side image and a HOG of a second block located at a position corresponding to the first block of the other side image; And
Determining a target object corresponding to the first characteristic and the second characteristic by referring to the prior learning data
Gt;
제9항에 있어서, 상기 제2 특징을 산출하는 단계는,
상기 입력 영상에서 검출 대상이 되는 객체의 종류 및 상기 제1 블록 및 상기 제2 블록의 위치에 따라 가중치를 달리 적용하여 유사도를 측정하는 단계를 포함하는 것
인 객체 검출방법.
10. The method of claim 9, wherein the calculating the second characteristic comprises:
And measuring the degree of similarity by applying different weights according to the type of the object to be detected and the position of the first block and the second block in the input image
In object detection method.
KR1020130119953A 2013-10-08 2013-10-08 Method for object detection and apparatus thereof KR101515926B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130119953A KR101515926B1 (en) 2013-10-08 2013-10-08 Method for object detection and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130119953A KR101515926B1 (en) 2013-10-08 2013-10-08 Method for object detection and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20150041428A KR20150041428A (en) 2015-04-16
KR101515926B1 true KR101515926B1 (en) 2015-05-04

Family

ID=53034923

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130119953A KR101515926B1 (en) 2013-10-08 2013-10-08 Method for object detection and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101515926B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190095714A (en) * 2018-02-07 2019-08-16 고려대학교 산학협력단 Method and apparatus for extracting feature to classify the weather of image
US10691909B2 (en) 2016-11-11 2020-06-23 Samsung Electronics Co., Ltd. User authentication method using fingerprint image and method of generating coded model for user authentication

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101700030B1 (en) * 2015-04-29 2017-01-25 포항공과대학교 산학협력단 Method for visual object localization using privileged information and apparatus for performing the same
KR102316960B1 (en) * 2019-11-28 2021-10-22 광운대학교 산학협력단 Method and apparatus for realtime object detection in unmanned aerial vehicle image
CN117372719A (en) * 2023-12-07 2024-01-09 四川迪晟新达类脑智能技术有限公司 Target detection method based on screening

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098983A (en) * 2010-11-04 2012-05-24 Fujitsu Ltd Object detection device, object detection method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098983A (en) * 2010-11-04 2012-05-24 Fujitsu Ltd Object detection device, object detection method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:정보과학회논문지*

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10691909B2 (en) 2016-11-11 2020-06-23 Samsung Electronics Co., Ltd. User authentication method using fingerprint image and method of generating coded model for user authentication
KR20190095714A (en) * 2018-02-07 2019-08-16 고려대학교 산학협력단 Method and apparatus for extracting feature to classify the weather of image
KR102071708B1 (en) * 2018-02-07 2020-01-30 고려대학교 산학협력단 Method and apparatus for extracting feature to classify the weather of image

Also Published As

Publication number Publication date
KR20150041428A (en) 2015-04-16

Similar Documents

Publication Publication Date Title
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
Romero-Ramirez et al. Speeded up detection of squared fiducial markers
US10929998B2 (en) Method and apparatus for estimating disparity
KR101405410B1 (en) Object detection device and system
KR101515926B1 (en) Method for object detection and apparatus thereof
KR101988384B1 (en) Image matching apparatus, image matching system and image matching mehod
Fan et al. Real-time stereo vision-based lane detection system
US20150154450A1 (en) Optical Flow Tracking Method and Apparatus
JP6056948B2 (en) Object tracking method and apparatus
US20140270362A1 (en) Fast edge-based object relocalization and detection using contextual filtering
Dvorak et al. Automatic detection of brain tumors in MR images
US10229498B2 (en) Image processing device, image processing method, and computer-readable recording medium
Cui et al. Corners detection on finger vein images using the improved Harris algorithm
KR20170024303A (en) System and method for detecting feature points of face
Dvořák et al. Automatic Brain Tumor Detection in T2-weighted Magnetic Resonance Images.
CN108960247B (en) Image significance detection method and device and electronic equipment
CN115994899A (en) Bolt loosening detection method, device and detection equipment
CN104268550A (en) Feature extraction method and device
KR20200068709A (en) Human body identification methods, devices and storage media
KR20160036081A (en) Line tracking with automatic model initialization by graph matching and cycle detection
Kim et al. Robust corner detection based on image structure
Wang et al. LBP-based edge detection method for depth images with low resolutions
Lobaton et al. Robust topological features for deformation invariant image matching
KR20200066125A (en) Method and device for estimating similarity of vedio
Yu et al. Motion detection in moving background using a novel algorithm based on image features guiding self-adaptive Sequential Similarity Detection Algorithm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190325

Year of fee payment: 5