KR101611267B1 - Method for object recognition and apparatus thereof - Google Patents

Method for object recognition and apparatus thereof Download PDF

Info

Publication number
KR101611267B1
KR101611267B1 KR1020140140741A KR20140140741A KR101611267B1 KR 101611267 B1 KR101611267 B1 KR 101611267B1 KR 1020140140741 A KR1020140140741 A KR 1020140140741A KR 20140140741 A KR20140140741 A KR 20140140741A KR 101611267 B1 KR101611267 B1 KR 101611267B1
Authority
KR
South Korea
Prior art keywords
feature
object recognition
difference
feature value
pixel
Prior art date
Application number
KR1020140140741A
Other languages
Korean (ko)
Inventor
이충희
김동영
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020140140741A priority Critical patent/KR101611267B1/en
Application granted granted Critical
Publication of KR101611267B1 publication Critical patent/KR101611267B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches

Abstract

Disclosed are an object recognition method and an object recognition device using the same that allow a feature used for object recognition to be selected by the use of a weighted value of the feature for each image pixel position. The object recognition device according to the present invention includes: a feature extraction unit extracting a first feature value for each pixel with respect to a positive learning image as an object recognition target and a second feature value for each pixel with respect to a negative learning image as a control group associated with the positive input image; a feature value superposition unit superposing the first feature value and the second feature value extracted for each pixel for each corresponding position; a feature differential calculation unit calculating a difference between the first feature value and the second feature value superposed for each corresponding position; and a feature screening unit screening a position of the feature to be used in the object recognition based on a calculated difference magnitude.

Description

객체 인식방법 및 이를 이용한 객체 인식장치{METHOD FOR OBJECT RECOGNITION AND APPARATUS THEREOF}METHOD FOR OBJECT RECOGNITION AND APPARATUS THEREOF FIELD OF THE INVENTION [0001]

본 발명은 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것으로서, 보다 상세하게는 영상화소 위치별 특징의 가중치를 이용하여 객체인식에 사용되는 특징을 선별할 수 있는 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것이다.[0001] The present invention relates to an object recognition method and an object recognition apparatus using the same, and more particularly, to an object recognition method capable of selecting a feature used for object recognition using a feature weight according to a pixel location, .

최근 다양한 산업분야에 영상기반 객체검출 기술을 적용하기 위한 연구가 활발하게 진행되고 있다. 객체 검출을 위해서는 적절한 특징을 추출하는 것이 상당히 중요하다. 일반적으로 객체 검출 성능을 향상시키기 위해서 intensity, edge, corner, color, disparity, symmetry 등 다양한 특징들을 사용한다. 그 중에서도 edge는 외부 밝기 변화에 강인하고, 비교적 많은 정보를 포함하고 있어 많이 사용되는 특징 중에 하나이다. edge를 이용한 대표적인 특징 생성 방법으로는, edge의 크기 및 방향을 추출하고, 이를 히스토그램화하여 특징벡터로 사용하는 방법이 많이 사용된다.Recently, researches have been actively conducted to apply image-based object detection technology to various industrial fields. For object detection, it is important to extract appropriate features. In general, various features such as intensity, edge, corner, color, disparity, and symmetry are used to improve object detection performance. Among them, the edge is robust against the change of the external brightness, and is one of the features widely used because it contains a relatively large amount of information. As a representative feature generation method using edges, a method of extracting the size and direction of an edge and histogramming it as a feature vector is widely used.

도 1에는 종래 기술에 따른 객체 인식용 특징의 획득방법이 도시된다. FIG. 1 shows a method for acquiring a feature for object recognition according to the prior art.

대상 객체는 획득 영상에 대한 특징 벡터(feature vector)와 사전 학습 데이터(pre-learned data)의 비교를 통해 검출될 수 있는데, 이를 위해서는 획득 영상에서 특징 벡터를 구성하는 특징들을 생성해야 하고, 도 1은 전술한 특징들 중에서 HOG(Histogram of Oriented Gradients)를 이용하는 방법을 설명한다. The target object can be detected by comparing the feature vector of the acquired image with the pre-learned data. For this purpose, the features constituting the feature vector must be generated in the acquired image, Describes a method of using Histogram of Oriented Gradients (HOG) among the above-mentioned characteristics.

도 1을 참조하면, 입력되는 획득 영상으로부터 화소에 대한 구배 벡터(gradient vector)를 계산하고, 영상을 블록화한 후 블록 별로 각 구배 벡터에 대한 방향 정보(orientation)를 히스토그램으로 작성하여 이를 특징벡터로 사용한다. 이러한 방법은 특정한 객체, 즉 대표적으로 보행자와 같이 외부 형태가 중요한 특징을 갖는 객체에서 아주 유용한 특징으로 사용될 수 있다.Referring to FIG. 1, a gradient vector for a pixel is calculated from an input acquired image, an image is blocked, and orientation information for each gradient vector is generated as a histogram for each block, use. This method can be used as a very useful feature in a specific object, that is, an object in which an external form is important, such as a pedestrian.

획득 영상에서 각 화소별 구배 벡터에 대한 방향성 정도를 알 수 있어 객체 검출 성능을 향상시키는데 많은 도움이 된다. 다만, 특징 벡터로서 HOG만을 사용하는 경우에는 객체 검출의 정확도가 떨어질 수 있다. 특히, 객체의 외곽 정보를 그대로 사용하고 있어 추가적인 검출 성능 향상에는 무리가 있다.It is helpful to improve the object detection performance by knowing the degree of directionality of the gradient vector for each pixel in the acquired image. However, when only HOG is used as a feature vector, the accuracy of object detection may be lowered. Particularly, since the outline information of the object is used as it is, it is difficult to improve the detection performance.

이를 해결하기 위하여 전술한 다양한 특징들을 연결하여 함께 사용하는데, 그에 따라 특징의 전체 용량이 상당히 증가하는 문제가 발생한다. 많은 특징의 사용으로 인하여 오히려 객체 인식 성능이 감소 할뿐만 아니라, 전체적인 처리속도가 떨어지는 문제가 있다.In order to solve this problem, the above-described various features are connected and used together, thereby causing a problem that the total capacity of the feature increases considerably. The use of many features not only reduces object recognition performance, but also lowers overall processing speed.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여, 영상화소 위치별 특징의 가중치를 이용하여 객체인식에 사용되는 특징을 선별할 수 있는 객체 인식방법 및 이를 이용한 객체 인식장치를 제공하는 것을 목적으로 한다.The object of the present invention is to provide an object recognition method capable of selecting a feature used for object recognition by using a weight of a feature of each image pixel position and to provide an object recognition apparatus using the same to solve the above- do.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 면에 따른 객체 인식장치는, 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출하는 특징 추출부; 화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 특징 값 중첩부; 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 특징 차분 산출부; 및 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 특징 선별부를 포함한다. 즉, 입력영상의 전체 부분에서 특징을 모두 추출하는 것이 아니라, 상기에서 선별된 특정 위치에서만 특징을 추출하여, 전체적인 특징용량을 줄이고, 속도를 향상시키고, 궁극적으로 특징을 효율적으로 사용하여 성능의 향상을 가져온다.According to an aspect of the present invention, there is provided an object recognition apparatus for recognizing an object, comprising: a first feature value for each pixel of a positive learning image to be recognized by an object; A feature extraction unit for extracting a second feature value for each pixel of the image; A feature value superposition unit for superposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis; A feature difference calculating unit for calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And a feature selector for selecting a position of a feature to be used for object recognition based on the calculated magnitude of the difference. That is, instead of extracting all the features from the entire portion of the input image, the features are extracted only at the selected specific positions, thereby reducing the overall feature capacity, improving the speed, and ultimately improving the performance Lt; / RTI >

상기 특징 추출부는 상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 화소별로 구배 벡터를 구하고, 구배 벡터의 강도(magnitude) 및 방향 정보(orientation)를 산출하는 것을 특징으로 한다.Wherein the feature extraction unit calculates a gradient vector for each pixel in the positive learning image and the negative learning image, and calculates magnitude and orientation of the gradient vector.

상기 특징 차분 산출부는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 것을 특징으로 한다.Wherein the feature difference calculating unit calculates a difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation .

상기 특징 선별부는 기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것을 특징으로 한다.The feature selecting unit may select a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition.

다른 실시예로서, 상기 특징 선별부는 산출된 차분을 오름차순 혹은 내림차순으로 정렬하는 것을 특징으로 한다.In another embodiment, the feature selector may sort the calculated differences in ascending or descending order.

이때, 상기 특징 선별부는 정렬된 차분에서, 기 설정된 선별 비율에 따라 그 크기가 큰 상위 일부 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것을 특징으로 한다. In this case, the feature selector may sort the position of the feature to be used in the object recognition by the position having the upper part difference with the larger size according to the predetermined sorting ratio in the sorted difference.

또한, 본 발명의 다른 실시예에 따른 객체 인식방법은 (a) 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출하는 단계; (b) 화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 단계; (c) 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 단계; 및 (d) 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 단계를 포함한다.According to another embodiment of the present invention, there is provided a method for recognizing an object, comprising the steps of: (a) calculating a first feature value for each pixel of a positive learning image, Extracting a second feature value; (b) superimposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis; (c) calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And (d) selecting a position of a feature to be used for object recognition based on the calculated size of the difference.

상기 (c) 단계는, 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 단계를 포함하는 것을 특징으로 한다. The step (c) may include calculating the difference between the first feature value and the second feature value superimposed on each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation .

상기 (d) 단계는, 기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것을 특징으로 한다.The step (d) includes the step of selecting a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition.

또한, 상기 (d) 단계는, 산출된 차분을 오름차순 혹은 내림차순으로 정렬하고 정렬된 차분에서, 기 설정된 선별 비율에 따라 그 크기가 큰 상위 일부 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것을 특징으로 한다.In the step (d), the calculated difference is sorted in ascending or descending order, and a position having an upper part difference with a large difference according to a predetermined sorting ratio is sorted into positions to be used for object recognition in the sorted difference The method comprising the steps of:

이상 상술한 바와 같은 본 발명에 따르면, 영상 내에서 객체인식을 위한 특징을 획득하는데 있어서, 모든 영상화소의 특징을 사용하는 것이 아니라, 영상화소별 특징의 가중치를 이용하여 최적 위치에 있는 특징만을 선별함으로써, 다수 특징을 사용함에 따른 성능 및 처리 속도 저하의 문제점을 개선할 수 있다. As described above, according to the present invention, in acquiring a feature for object recognition in an image, not only the features of all the image pixels are used, but only the feature at the optimum position is selected This makes it possible to improve the performance and the processing speed degradation due to the use of a plurality of features.

특히, 각각의 학습 영상으로부터 중첩된 특징 값을 획득하고, 그 특징 값의 차분을 연산하여, 그 차분(가중치)이 높은 일부 영상화소 위치의 특징 값만을 객체인식을 위한 특징으로 선별한다. 이에 따라, 다양한 특징을 함께 사용하면서 발생하는 특징 용량의 증가, 속도 처리 저하, 성능 저하 등의 문제를 해결할 수 있다.Particularly, superimposed feature values are obtained from each learning image, and the differences of the feature values are calculated, and only feature values of some image pixel positions having a high difference (weight value) are selected as features for object recognition. Accordingly, it is possible to solve problems such as an increase in the feature capacitance, deterioration in the speed processing, and deterioration in the performance while using various features together.

도 1에는 종래 기술에 따른 객체 인식용 특징의 획득방법을 설명하기 위한 예시도.
도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도.
도 3a는 HOG 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정을 도시한 예시도.
도 3b는 Symmetry 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정을 도시한 예시도.
도 4는 본 발명의 실시예에 따른 객체 인식방법을 설명하기 위한 순서도.
1 is an exemplary diagram for explaining a method of acquiring a feature for object recognition according to the prior art.
2 is a block diagram illustrating an object recognition apparatus according to an embodiment of the present invention.
FIG. 3A is an exemplary diagram illustrating a process of selecting features to be used for object recognition using the HOG feature; FIG.
FIG. 3B is a diagram illustrating a process of selecting features to be used for object recognition using the Symmetry characteristic. FIG.
4 is a flowchart illustrating an object recognition method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도이다.2 is a block diagram illustrating an object recognition apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명에 따른 객체 인식장치는 특징 추출부(100), 특징값 중첩부(200), 특징 차분 산출부(300) 및 특징 선별부(400)를 포함하여 구성된다.2, the object recognition apparatus according to the present invention includes a feature extraction unit 100, a feature value superposition unit 200, a feature difference calculation unit 300, and a feature selection unit 400.

특징 추출부(100)는 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출한다.The feature extraction unit 100 extracts a first feature value for each pixel of the positive learning image to be recognized of the object and a second feature value for each pixel of the negative learning image for the positive input image.

특징 추출부(100)는 입력된 포지티브 학습영상 또는 네거티브 학습영상에 대해 전처리를 수행한 후, 해당 특징 값을 추출할 수 있다.The feature extraction unit 100 may extract the feature values after performing the preprocessing on the inputted positive learning image or negative learning image.

예컨대, 특징 추출부(100)는 입력된 영상에 대해 색상보정을 수행한다. 대표적인 방법으로는 감마 보정방법이 있다. 또한, 특징 추출부(100)는 입력 영상의 화소별로 구배 벡터를 구하고, 구배 벡터의 강도(magnitude) 및 방향 정보(orientation)를 산출한다. 예컨대, 소벨, 캐니 등과 같은 방법이 구배 벡터를 구하는데 사용될 수 있다. For example, the feature extraction unit 100 performs color correction on the input image. A typical method is gamma correction. In addition, the feature extraction unit 100 obtains a gradient vector for each pixel of the input image, and calculates magnitude and orientation of the gradient vector. For example, methods such as Sobel, Canny, and the like can be used to obtain gradient vectors.

전술한 구배 벡터 등을 이용하여 상기 특징 추출부(100)는 입력 영상에서 HOG(Histogram of Oriented Gradients)와 같은 특징을 추출할 수 있다. 여기서, HOG는 복수의 블록들에 대응하는 구배 벡터(gradient vector)들의 도수 분포를 나타내는 히스토그램을 말한다. 그러나, 본 발명의 실시 예에 따른 특징은 HOG뿐만 아니라, 영상 인식에 사용되는 어떠한 종류의 특징(예컨대, intensity, corner, color, disparity, symmetry 등)도 사용될 수 있음에 유념해야 할 것이다.The feature extraction unit 100 can extract features such as Histogram of Oriented Gradients (HOG) from the input image using the above-described gradient vector or the like. Here, HOG refers to a histogram representing the frequency distribution of gradient vectors corresponding to a plurality of blocks. However, it should be noted that features according to embodiments of the present invention may be used not only for HOG but also for any kind of features (e.g., intensity, corner, color, disparity, symmetry, etc.) used for image recognition.

특징값 중첩부(200)는 상기 특징 추출부(100)에서 추출된 상기 포지티브 학습영상에 대한 제1 특징 값과, 상기 네거티브 학습영상에 대한 제2 특징 값을 대응되는 화소 위치별로 중첩한다.The feature value superimposing unit 200 superimposes the first feature value of the positive learning image extracted by the feature extracting unit 100 and the second feature value of the negative learning image for each corresponding pixel position.

특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출한다. The feature difference calculating unit 300 calculates the difference between the first feature value and the second feature value superimposed on each corresponding position.

예컨대, 특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출할 수 있다.For example, the feature difference calculator 300 may calculate the difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation can do.

특징 선별부(400)는 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별한다. 여기서, 산출된 차분은 객체 인식에 사용될 특징 위치의 가중치를 의미한다. 즉, 가중치가 높은 특징의 위치를 선별하여 그 위치의 특징만을 객체 인식에 사용함으로써, 특징의 전체적인 용량을 줄여 처리속도를 향상시킬 수 있다. The feature selection unit 400 selects the position of a feature to be used for object recognition based on the calculated size of the difference. Here, the calculated difference means a weight of a feature location to be used for object recognition. That is, the position of a feature having a high weight is selected, and only the feature of the position is used for object recognition, thereby improving the processing speed by reducing the overall capacity of the feature.

일 실시예로서, 상기 특징 선별부(400)는 기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별한다. 예컨대, 상기 특징 선별부(400)는 각 화소 위치별로 산출된 특징 차분을 기 설정된 임계 값과 비교하고, 그 결과 상기 임계 값을 초과하는 차분을 갖는 화소 위치를 객체인식에 사용할 특징의 위치로 선별한다. In one embodiment, the feature selector 400 selects a position having a difference exceeding a predetermined threshold value as a position of a feature to be used for object recognition. For example, the feature selector 400 compares the feature difference calculated for each pixel position with a predetermined threshold value, and as a result, the pixel position having a difference exceeding the threshold value is selected as a feature position to be used for object recognition do.

다른 실시예로서, 상기 특징 선별부(400)는 화소 위치별로 산출된 차분을 오름차순 혹은 내림차순으로 정렬하고, 정렬된 차분에서 기 설정된 선별 비율에 따라 그 크기가 큰 상위 일부 차분을 갖는 화소 위치를 객체인식에 사용할 특징의 위치로 선별할 수 있다. In another embodiment, the feature selector 400 may sort the differences computed for each pixel position in ascending or descending order, and determine a pixel position having an upper-most partial difference that is larger in size according to a pre- The location of the feature to be used for recognition can be selected.

도 3a에는 HOG 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정이 예시적으로 도시된다. FIG. 3A illustrates an exemplary process for selecting features to be used for object recognition using the HOG feature.

도 3a는 실제로 일부 보행자 학습영상을 이용하여 가중치가 높은 특징 위치만을 찾은 예를 나타낸다. 사용된 특징은 보행자 검출에 사용되는 대표적인 특징인 HOG(Histogram of Oriented Gradients) 특징이다. 먼저 앞서 설명한 바와 같이 포지티브 학습 영상과 네거티브 학습 영상으로부터 각각 특징이 추출되고, 각각의 특징 값은 화소 위치별로 중첩된다. 중첩된 특징 값 사이의 차분이 연산되고, 그 차분은 크기가 큰(작은) 순서대로 정렬된다. 이후, 상위(하위) 일부 위치만의 특징을 최종 특징으로 사용한다.FIG. 3A shows an example in which only a feature point having a high weight is found by using some pedestrian learning images. The feature used is the Histogram of Oriented Gradients (HOG), which is a typical feature used for pedestrian detection. As described above, the features are extracted from the positive learning image and the negative learning image, respectively, and the feature values are superimposed on each pixel position. Differences between the superimposed feature values are computed, and the differences are sorted in order of magnitude (small). Then, the feature of only the upper (lower) part is used as the final feature.

최종 선별된 특징의 위치를 살펴보면, 보행자의 좌우 외곽부분 및 하단 부분이 두 학습 영상군을 구분하는데 가중치가 높은 영역임을 알 수 있다. 즉 보행자 내부 영역이나, 배경 부분 등은 특징으로서 많은 역할을 하지 않음을 알 수 있다.The location of the final selected feature points reveals that the left and right outer parts of the pedestrian and the lower part are the weighted areas for distinguishing the two learning images. In other words, the area inside the pedestrian, the background part, and the like do not play much role as a feature.

도 3b에는 Symmetry 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정이 예시적으로 도시된다.FIG. 3B exemplarily shows a process of selecting features to be used for object recognition using the Symmetry feature.

Symmetry 특징을 이용한 특징 선별 과정은 HOG 특징을 이용한 선별 과정과 동일한데, symmetry 특징의 경우에도 그 특성상 보행자의 외곽부분이 배경부분이나, 보행자의 내부영역보다 객체 인식에 대한 가중치가 높은 영역임을 알 수 있다.The feature selection process using the Symmetry feature is the same as the selection process using the HOG feature. In the case of the symmetry feature, it can be seen that the outer portion of the pedestrian is a region having a higher weight for object recognition than the background portion or the inner region of the pedestrian have.

본 발명에 따르면, 여러 특징들을 이용하여 인식 성능을 높이고자 할 때, 각 특징 별로 가중치가 높지 않은 부분은 사용하지 않고 처리해야 하는 특징의 용량을 줄이고 처리 속도를 높일 수 있는 이점이 있다.According to the present invention, when the recognition performance is enhanced by using various features, there is an advantage that the capacity of the feature to be processed without increasing the weight of each feature is reduced and the processing speed is increased.

이하, 도 2 및 도 4를 참조하여 본 발명의 실시예에 따른 객체 인식방법을 설명한다. 도 4는 본 발명의 실시예에 따른 객체 인식방법을 설명하기 위한 순서도이다.Hereinafter, an object recognition method according to an embodiment of the present invention will be described with reference to FIG. 2 and FIG. 4 is a flowchart illustrating an object recognition method according to an embodiment of the present invention.

도 4를 참조하면, 단계 S100에서, 특징 추출부(100)는 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출한다.Referring to FIG. 4, in step S100, the feature extraction unit 100 extracts a first feature value for each pixel of a positive learning image, which is an object to be recognized, and a second feature value for each pixel for a negative learning image, which is a control group for the positive input image. And extracts a second feature value.

단계 S200에서, 특징값 중첩부(200)는 상기 특징 추출부(100)에서 추출된 상기 포지티브 학습영상에 대한 제1 특징 값과, 상기 네거티브 학습영상에 대한 제2 특징 값을 대응되는 화소 위치별로 중첩한다.In step S200, the feature value superimposing unit 200 superimposes the first feature value for the positive learning image extracted by the feature extracting unit 100 and the second feature value for the negative learning image on the basis of the corresponding pixel position Overlap.

단계 S300에서, 특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출한다. In step S300, the feature difference calculating unit 300 calculates a difference between the first feature value and the second feature value superimposed on each corresponding position.

예컨대, 특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출할 수 있다.For example, the feature difference calculator 300 may calculate the difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation can do.

단계 S400에서, 특징 선별부(400)는 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징을 선별한다. 여기서, 산출된 차분은 객체 인식에 사용될 특징의 가중치를 의미한다. 즉, 가중치가 높은 특징을 선별하여 객체 인식에 사용함으로써, 특징의 전체적인 용량을 줄여 처리속도를 향상시킬 수 있다. In step S400, the feature selection unit 400 selects a feature to be used for object recognition based on the calculated difference size. Here, the calculated difference means a weight of a feature to be used for object recognition. That is, by using high-weighted features for object recognition, it is possible to improve the processing speed by reducing the overall capacity of features.

한편, 상술한 본 발명에 따른 객체 인식방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the object recognition method according to the present invention described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, there may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device and the like. The computer-readable recording medium may also be distributed and executed in a computer system connected to a computer network and stored and executed as a code that can be read in a distributed manner.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

100 : 특징 추출부
200 : 특징 값 중첩부
300 : 특징 차분 산출부
400 : 특징 선별부
100: Feature extraction unit
200: feature value superposition part
300: feature difference calculating section
400: Characteristic selection unit

Claims (11)

객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출하는 특징 추출부;
화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 특징 값 중첩부;
대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 특징 차분 산출부; 및
산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 특징 선별부
를 포함하는 객체 인식장치.
A feature extraction unit for extracting a first feature value for each pixel of the positive learning image as an object of object recognition and a second feature value for each pixel of a negative learning image as a control group for the positive learning image;
A feature value superposition unit for superposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis;
A feature difference calculating unit for calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And
And a feature selection unit for selecting a position of a feature to be used for object recognition based on the calculated size of the difference
The object recognition apparatus comprising:
제1항에 있어서, 상기 특징 추출부는,
상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 화소별로 구배 벡터를 구하고, 구배 벡터의 강도(magnitude) 및 방향 정보(orientation)를 산출하는 것인 객체 인식장치.

The apparatus according to claim 1,
Wherein a gradient vector is obtained for each pixel in the positive learning image and the negative learning image, and the magnitude and orientation of the gradient vector are calculated.

제1항에 있어서, 상기 특징 추출부는,
상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 화소별로 intensity, corner, color, disparity, symmetry 중 적어도 하나의 특징을 추출하는 것인 객체 인식장치.
The apparatus according to claim 1,
Wherein at least one of intensity, corner, color, disparity, and symmetry is extracted for each pixel in the positive learning image and the negative learning image.
제1항에 있어서, 상기 특징 차분 산출부는,
대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 것
인 객체 인식장치.
The image processing apparatus according to claim 1,
Calculating a difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation
In object recognition device.
제1항에 있어서, 상기 특징 선별부는,
기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것
인 객체 인식장치.

The apparatus according to claim 1,
Selecting a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition
In object recognition device.

제1항에 있어서, 상기 특징 선별부는,
산출된 차분을 오름차순 혹은 내림차순으로 정렬하는 것인 객체 인식장치.
The apparatus according to claim 1,
And sorts the calculated difference in ascending or descending order.
제6항에 있어서, 상기 특징 선별부는,
정렬된 차분에서, 기 설정된 선별 비율에 해당하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것
인 객체 인식장치.
7. The apparatus according to claim 6,
In the sorted difference, a position having a difference corresponding to a predetermined sorting ratio is selected as a position of a feature to be used for object recognition
In object recognition device.
(a) 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출하는 단계;
(b) 화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 단계
(c) 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 단계; 및
(d) 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 단계
를 포함하는 객체 인식방법.
(a) extracting, for each pixel, a first feature value for a positive learning image to be an object recognition object and a second feature value for each pixel for a negative learning image, which is a control group for the positive learning image;
(b) superimposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis
(c) calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And
(d) selecting a position of a feature to be used for object recognition based on the calculated size of the difference
/ RTI >
제8항에 있어서, 상기 (c) 단계는,
대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 단계를 포함하는 것
인 객체 인식방법.
9. The method of claim 8, wherein the step (c)
And calculating the difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation
In object recognition method.
제8항에 있어서, 상기 (d) 단계는,
기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것
인 객체 인식방법.
9. The method of claim 8, wherein step (d)
And selecting a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition
In object recognition method.
제8항에 있어서, 상기 (d) 단계는,
산출된 차분을 오름차순 혹은 내림차순으로 정렬하고 정렬된 차분에서, 기 설정된 선별 비율에 해당하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것
인 객체 인식방법.
9. The method of claim 8, wherein step (d)
Sorting the calculated difference in ascending or descending order, and sorting the sorted difference by the position of the feature to be used in object recognition, the position having a difference corresponding to the predetermined sorting ratio
In object recognition method.
KR1020140140741A 2014-10-17 2014-10-17 Method for object recognition and apparatus thereof KR101611267B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140140741A KR101611267B1 (en) 2014-10-17 2014-10-17 Method for object recognition and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140140741A KR101611267B1 (en) 2014-10-17 2014-10-17 Method for object recognition and apparatus thereof

Publications (1)

Publication Number Publication Date
KR101611267B1 true KR101611267B1 (en) 2016-04-11

Family

ID=55800785

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140140741A KR101611267B1 (en) 2014-10-17 2014-10-17 Method for object recognition and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101611267B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101802500B1 (en) 2016-10-20 2017-11-28 재단법인대구경북과학기술원 Learning device for improving image recogntion performance and learning method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007074600A1 (en) 2005-12-26 2007-07-05 Nec Corporation Feature extraction device, feature extraction method, and feature extraction program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007074600A1 (en) 2005-12-26 2007-07-05 Nec Corporation Feature extraction device, feature extraction method, and feature extraction program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Constrained Local Model for Face Alignment, a Tutorial

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101802500B1 (en) 2016-10-20 2017-11-28 재단법인대구경북과학기술원 Learning device for improving image recogntion performance and learning method thereof

Similar Documents

Publication Publication Date Title
Lalonde et al. Detecting ground shadows in outdoor consumer photographs
US9269155B2 (en) Region growing method for depth map/color image
US9317784B2 (en) Image processing apparatus, image processing method, and program
JP5775225B2 (en) Text detection using multi-layer connected components with histograms
US9740965B2 (en) Information processing apparatus and control method thereof
CN107705288A (en) Hazardous gas spillage infrared video detection method under pseudo- target fast-moving strong interferers
KR101436369B1 (en) Apparatus and method for detecting multiple object using adaptive block partitioning
CN107944403B (en) Method and device for detecting pedestrian attribute in image
Wang et al. Car license plate detection based on MSER
Sridevi et al. A survey on monochrome image segmentation methods
KR101753360B1 (en) A feature matching method which is robust to the viewpoint change
Katramados et al. Real-time visual saliency by division of gaussians
CN108960247B (en) Image significance detection method and device and electronic equipment
Samopa et al. Hybrid image thresholding method using edge detection
US8891879B2 (en) Image processing apparatus, image processing method, and program
JP2011165170A (en) Object detection device and program
CN111695373B (en) Zebra stripes positioning method, system, medium and equipment
KR102195940B1 (en) System and Method for Detecting Deep Learning based Human Object using Adaptive Thresholding Method of Non Maximum Suppression
KR101611267B1 (en) Method for object recognition and apparatus thereof
CN106446832B (en) Video-based pedestrian real-time detection method
KR101106448B1 (en) Real-Time Moving Object Detection For Intelligent Visual Surveillance
KR101741761B1 (en) A classification method of feature points required for multi-frame based building recognition
CN112101260B (en) Method, device, equipment and storage medium for identifying safety belt of operator
Fatichah et al. Optical flow feature based for fire detection on video data
Zukal et al. Evaluation of interest point detectors for scenes with changing lightening conditions

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190325

Year of fee payment: 4