KR101611267B1 - Method for object recognition and apparatus thereof - Google Patents
Method for object recognition and apparatus thereof Download PDFInfo
- Publication number
- KR101611267B1 KR101611267B1 KR1020140140741A KR20140140741A KR101611267B1 KR 101611267 B1 KR101611267 B1 KR 101611267B1 KR 1020140140741 A KR1020140140741 A KR 1020140140741A KR 20140140741 A KR20140140741 A KR 20140140741A KR 101611267 B1 KR101611267 B1 KR 101611267B1
- Authority
- KR
- South Korea
- Prior art keywords
- feature
- object recognition
- difference
- feature value
- pixel
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
Abstract
Description
본 발명은 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것으로서, 보다 상세하게는 영상화소 위치별 특징의 가중치를 이용하여 객체인식에 사용되는 특징을 선별할 수 있는 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것이다.[0001] The present invention relates to an object recognition method and an object recognition apparatus using the same, and more particularly, to an object recognition method capable of selecting a feature used for object recognition using a feature weight according to a pixel location, .
최근 다양한 산업분야에 영상기반 객체검출 기술을 적용하기 위한 연구가 활발하게 진행되고 있다. 객체 검출을 위해서는 적절한 특징을 추출하는 것이 상당히 중요하다. 일반적으로 객체 검출 성능을 향상시키기 위해서 intensity, edge, corner, color, disparity, symmetry 등 다양한 특징들을 사용한다. 그 중에서도 edge는 외부 밝기 변화에 강인하고, 비교적 많은 정보를 포함하고 있어 많이 사용되는 특징 중에 하나이다. edge를 이용한 대표적인 특징 생성 방법으로는, edge의 크기 및 방향을 추출하고, 이를 히스토그램화하여 특징벡터로 사용하는 방법이 많이 사용된다.Recently, researches have been actively conducted to apply image-based object detection technology to various industrial fields. For object detection, it is important to extract appropriate features. In general, various features such as intensity, edge, corner, color, disparity, and symmetry are used to improve object detection performance. Among them, the edge is robust against the change of the external brightness, and is one of the features widely used because it contains a relatively large amount of information. As a representative feature generation method using edges, a method of extracting the size and direction of an edge and histogramming it as a feature vector is widely used.
도 1에는 종래 기술에 따른 객체 인식용 특징의 획득방법이 도시된다. FIG. 1 shows a method for acquiring a feature for object recognition according to the prior art.
대상 객체는 획득 영상에 대한 특징 벡터(feature vector)와 사전 학습 데이터(pre-learned data)의 비교를 통해 검출될 수 있는데, 이를 위해서는 획득 영상에서 특징 벡터를 구성하는 특징들을 생성해야 하고, 도 1은 전술한 특징들 중에서 HOG(Histogram of Oriented Gradients)를 이용하는 방법을 설명한다. The target object can be detected by comparing the feature vector of the acquired image with the pre-learned data. For this purpose, the features constituting the feature vector must be generated in the acquired image, Describes a method of using Histogram of Oriented Gradients (HOG) among the above-mentioned characteristics.
도 1을 참조하면, 입력되는 획득 영상으로부터 화소에 대한 구배 벡터(gradient vector)를 계산하고, 영상을 블록화한 후 블록 별로 각 구배 벡터에 대한 방향 정보(orientation)를 히스토그램으로 작성하여 이를 특징벡터로 사용한다. 이러한 방법은 특정한 객체, 즉 대표적으로 보행자와 같이 외부 형태가 중요한 특징을 갖는 객체에서 아주 유용한 특징으로 사용될 수 있다.Referring to FIG. 1, a gradient vector for a pixel is calculated from an input acquired image, an image is blocked, and orientation information for each gradient vector is generated as a histogram for each block, use. This method can be used as a very useful feature in a specific object, that is, an object in which an external form is important, such as a pedestrian.
획득 영상에서 각 화소별 구배 벡터에 대한 방향성 정도를 알 수 있어 객체 검출 성능을 향상시키는데 많은 도움이 된다. 다만, 특징 벡터로서 HOG만을 사용하는 경우에는 객체 검출의 정확도가 떨어질 수 있다. 특히, 객체의 외곽 정보를 그대로 사용하고 있어 추가적인 검출 성능 향상에는 무리가 있다.It is helpful to improve the object detection performance by knowing the degree of directionality of the gradient vector for each pixel in the acquired image. However, when only HOG is used as a feature vector, the accuracy of object detection may be lowered. Particularly, since the outline information of the object is used as it is, it is difficult to improve the detection performance.
이를 해결하기 위하여 전술한 다양한 특징들을 연결하여 함께 사용하는데, 그에 따라 특징의 전체 용량이 상당히 증가하는 문제가 발생한다. 많은 특징의 사용으로 인하여 오히려 객체 인식 성능이 감소 할뿐만 아니라, 전체적인 처리속도가 떨어지는 문제가 있다.In order to solve this problem, the above-described various features are connected and used together, thereby causing a problem that the total capacity of the feature increases considerably. The use of many features not only reduces object recognition performance, but also lowers overall processing speed.
본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여, 영상화소 위치별 특징의 가중치를 이용하여 객체인식에 사용되는 특징을 선별할 수 있는 객체 인식방법 및 이를 이용한 객체 인식장치를 제공하는 것을 목적으로 한다.The object of the present invention is to provide an object recognition method capable of selecting a feature used for object recognition by using a weight of a feature of each image pixel position and to provide an object recognition apparatus using the same to solve the above- do.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 면에 따른 객체 인식장치는, 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출하는 특징 추출부; 화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 특징 값 중첩부; 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 특징 차분 산출부; 및 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 특징 선별부를 포함한다. 즉, 입력영상의 전체 부분에서 특징을 모두 추출하는 것이 아니라, 상기에서 선별된 특정 위치에서만 특징을 추출하여, 전체적인 특징용량을 줄이고, 속도를 향상시키고, 궁극적으로 특징을 효율적으로 사용하여 성능의 향상을 가져온다.According to an aspect of the present invention, there is provided an object recognition apparatus for recognizing an object, comprising: a first feature value for each pixel of a positive learning image to be recognized by an object; A feature extraction unit for extracting a second feature value for each pixel of the image; A feature value superposition unit for superposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis; A feature difference calculating unit for calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And a feature selector for selecting a position of a feature to be used for object recognition based on the calculated magnitude of the difference. That is, instead of extracting all the features from the entire portion of the input image, the features are extracted only at the selected specific positions, thereby reducing the overall feature capacity, improving the speed, and ultimately improving the performance Lt; / RTI >
상기 특징 추출부는 상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 화소별로 구배 벡터를 구하고, 구배 벡터의 강도(magnitude) 및 방향 정보(orientation)를 산출하는 것을 특징으로 한다.Wherein the feature extraction unit calculates a gradient vector for each pixel in the positive learning image and the negative learning image, and calculates magnitude and orientation of the gradient vector.
상기 특징 차분 산출부는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 것을 특징으로 한다.Wherein the feature difference calculating unit calculates a difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation .
상기 특징 선별부는 기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것을 특징으로 한다.The feature selecting unit may select a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition.
다른 실시예로서, 상기 특징 선별부는 산출된 차분을 오름차순 혹은 내림차순으로 정렬하는 것을 특징으로 한다.In another embodiment, the feature selector may sort the calculated differences in ascending or descending order.
이때, 상기 특징 선별부는 정렬된 차분에서, 기 설정된 선별 비율에 따라 그 크기가 큰 상위 일부 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것을 특징으로 한다. In this case, the feature selector may sort the position of the feature to be used in the object recognition by the position having the upper part difference with the larger size according to the predetermined sorting ratio in the sorted difference.
또한, 본 발명의 다른 실시예에 따른 객체 인식방법은 (a) 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출하는 단계; (b) 화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 단계; (c) 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 단계; 및 (d) 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 단계를 포함한다.According to another embodiment of the present invention, there is provided a method for recognizing an object, comprising the steps of: (a) calculating a first feature value for each pixel of a positive learning image, Extracting a second feature value; (b) superimposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis; (c) calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And (d) selecting a position of a feature to be used for object recognition based on the calculated size of the difference.
상기 (c) 단계는, 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 단계를 포함하는 것을 특징으로 한다. The step (c) may include calculating the difference between the first feature value and the second feature value superimposed on each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation .
상기 (d) 단계는, 기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것을 특징으로 한다.The step (d) includes the step of selecting a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition.
또한, 상기 (d) 단계는, 산출된 차분을 오름차순 혹은 내림차순으로 정렬하고 정렬된 차분에서, 기 설정된 선별 비율에 따라 그 크기가 큰 상위 일부 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것을 특징으로 한다.In the step (d), the calculated difference is sorted in ascending or descending order, and a position having an upper part difference with a large difference according to a predetermined sorting ratio is sorted into positions to be used for object recognition in the sorted difference The method comprising the steps of:
이상 상술한 바와 같은 본 발명에 따르면, 영상 내에서 객체인식을 위한 특징을 획득하는데 있어서, 모든 영상화소의 특징을 사용하는 것이 아니라, 영상화소별 특징의 가중치를 이용하여 최적 위치에 있는 특징만을 선별함으로써, 다수 특징을 사용함에 따른 성능 및 처리 속도 저하의 문제점을 개선할 수 있다. As described above, according to the present invention, in acquiring a feature for object recognition in an image, not only the features of all the image pixels are used, but only the feature at the optimum position is selected This makes it possible to improve the performance and the processing speed degradation due to the use of a plurality of features.
특히, 각각의 학습 영상으로부터 중첩된 특징 값을 획득하고, 그 특징 값의 차분을 연산하여, 그 차분(가중치)이 높은 일부 영상화소 위치의 특징 값만을 객체인식을 위한 특징으로 선별한다. 이에 따라, 다양한 특징을 함께 사용하면서 발생하는 특징 용량의 증가, 속도 처리 저하, 성능 저하 등의 문제를 해결할 수 있다.Particularly, superimposed feature values are obtained from each learning image, and the differences of the feature values are calculated, and only feature values of some image pixel positions having a high difference (weight value) are selected as features for object recognition. Accordingly, it is possible to solve problems such as an increase in the feature capacitance, deterioration in the speed processing, and deterioration in the performance while using various features together.
도 1에는 종래 기술에 따른 객체 인식용 특징의 획득방법을 설명하기 위한 예시도.
도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도.
도 3a는 HOG 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정을 도시한 예시도.
도 3b는 Symmetry 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정을 도시한 예시도.
도 4는 본 발명의 실시예에 따른 객체 인식방법을 설명하기 위한 순서도.1 is an exemplary diagram for explaining a method of acquiring a feature for object recognition according to the prior art.
2 is a block diagram illustrating an object recognition apparatus according to an embodiment of the present invention.
FIG. 3A is an exemplary diagram illustrating a process of selecting features to be used for object recognition using the HOG feature; FIG.
FIG. 3B is a diagram illustrating a process of selecting features to be used for object recognition using the Symmetry characteristic. FIG.
4 is a flowchart illustrating an object recognition method according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도이다.2 is a block diagram illustrating an object recognition apparatus according to an embodiment of the present invention.
도 2를 참조하면, 본 발명에 따른 객체 인식장치는 특징 추출부(100), 특징값 중첩부(200), 특징 차분 산출부(300) 및 특징 선별부(400)를 포함하여 구성된다.2, the object recognition apparatus according to the present invention includes a feature extraction unit 100, a feature
특징 추출부(100)는 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출한다.The feature extraction unit 100 extracts a first feature value for each pixel of the positive learning image to be recognized of the object and a second feature value for each pixel of the negative learning image for the positive input image.
특징 추출부(100)는 입력된 포지티브 학습영상 또는 네거티브 학습영상에 대해 전처리를 수행한 후, 해당 특징 값을 추출할 수 있다.The feature extraction unit 100 may extract the feature values after performing the preprocessing on the inputted positive learning image or negative learning image.
예컨대, 특징 추출부(100)는 입력된 영상에 대해 색상보정을 수행한다. 대표적인 방법으로는 감마 보정방법이 있다. 또한, 특징 추출부(100)는 입력 영상의 화소별로 구배 벡터를 구하고, 구배 벡터의 강도(magnitude) 및 방향 정보(orientation)를 산출한다. 예컨대, 소벨, 캐니 등과 같은 방법이 구배 벡터를 구하는데 사용될 수 있다. For example, the feature extraction unit 100 performs color correction on the input image. A typical method is gamma correction. In addition, the feature extraction unit 100 obtains a gradient vector for each pixel of the input image, and calculates magnitude and orientation of the gradient vector. For example, methods such as Sobel, Canny, and the like can be used to obtain gradient vectors.
전술한 구배 벡터 등을 이용하여 상기 특징 추출부(100)는 입력 영상에서 HOG(Histogram of Oriented Gradients)와 같은 특징을 추출할 수 있다. 여기서, HOG는 복수의 블록들에 대응하는 구배 벡터(gradient vector)들의 도수 분포를 나타내는 히스토그램을 말한다. 그러나, 본 발명의 실시 예에 따른 특징은 HOG뿐만 아니라, 영상 인식에 사용되는 어떠한 종류의 특징(예컨대, intensity, corner, color, disparity, symmetry 등)도 사용될 수 있음에 유념해야 할 것이다.The feature extraction unit 100 can extract features such as Histogram of Oriented Gradients (HOG) from the input image using the above-described gradient vector or the like. Here, HOG refers to a histogram representing the frequency distribution of gradient vectors corresponding to a plurality of blocks. However, it should be noted that features according to embodiments of the present invention may be used not only for HOG but also for any kind of features (e.g., intensity, corner, color, disparity, symmetry, etc.) used for image recognition.
특징값 중첩부(200)는 상기 특징 추출부(100)에서 추출된 상기 포지티브 학습영상에 대한 제1 특징 값과, 상기 네거티브 학습영상에 대한 제2 특징 값을 대응되는 화소 위치별로 중첩한다.The feature value
특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출한다. The feature
예컨대, 특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출할 수 있다.For example, the
특징 선별부(400)는 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별한다. 여기서, 산출된 차분은 객체 인식에 사용될 특징 위치의 가중치를 의미한다. 즉, 가중치가 높은 특징의 위치를 선별하여 그 위치의 특징만을 객체 인식에 사용함으로써, 특징의 전체적인 용량을 줄여 처리속도를 향상시킬 수 있다. The
일 실시예로서, 상기 특징 선별부(400)는 기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별한다. 예컨대, 상기 특징 선별부(400)는 각 화소 위치별로 산출된 특징 차분을 기 설정된 임계 값과 비교하고, 그 결과 상기 임계 값을 초과하는 차분을 갖는 화소 위치를 객체인식에 사용할 특징의 위치로 선별한다. In one embodiment, the
다른 실시예로서, 상기 특징 선별부(400)는 화소 위치별로 산출된 차분을 오름차순 혹은 내림차순으로 정렬하고, 정렬된 차분에서 기 설정된 선별 비율에 따라 그 크기가 큰 상위 일부 차분을 갖는 화소 위치를 객체인식에 사용할 특징의 위치로 선별할 수 있다. In another embodiment, the
도 3a에는 HOG 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정이 예시적으로 도시된다. FIG. 3A illustrates an exemplary process for selecting features to be used for object recognition using the HOG feature.
도 3a는 실제로 일부 보행자 학습영상을 이용하여 가중치가 높은 특징 위치만을 찾은 예를 나타낸다. 사용된 특징은 보행자 검출에 사용되는 대표적인 특징인 HOG(Histogram of Oriented Gradients) 특징이다. 먼저 앞서 설명한 바와 같이 포지티브 학습 영상과 네거티브 학습 영상으로부터 각각 특징이 추출되고, 각각의 특징 값은 화소 위치별로 중첩된다. 중첩된 특징 값 사이의 차분이 연산되고, 그 차분은 크기가 큰(작은) 순서대로 정렬된다. 이후, 상위(하위) 일부 위치만의 특징을 최종 특징으로 사용한다.FIG. 3A shows an example in which only a feature point having a high weight is found by using some pedestrian learning images. The feature used is the Histogram of Oriented Gradients (HOG), which is a typical feature used for pedestrian detection. As described above, the features are extracted from the positive learning image and the negative learning image, respectively, and the feature values are superimposed on each pixel position. Differences between the superimposed feature values are computed, and the differences are sorted in order of magnitude (small). Then, the feature of only the upper (lower) part is used as the final feature.
최종 선별된 특징의 위치를 살펴보면, 보행자의 좌우 외곽부분 및 하단 부분이 두 학습 영상군을 구분하는데 가중치가 높은 영역임을 알 수 있다. 즉 보행자 내부 영역이나, 배경 부분 등은 특징으로서 많은 역할을 하지 않음을 알 수 있다.The location of the final selected feature points reveals that the left and right outer parts of the pedestrian and the lower part are the weighted areas for distinguishing the two learning images. In other words, the area inside the pedestrian, the background part, and the like do not play much role as a feature.
도 3b에는 Symmetry 특징을 이용하여 객체인식에 사용할 특징을 선별하는 과정이 예시적으로 도시된다.FIG. 3B exemplarily shows a process of selecting features to be used for object recognition using the Symmetry feature.
Symmetry 특징을 이용한 특징 선별 과정은 HOG 특징을 이용한 선별 과정과 동일한데, symmetry 특징의 경우에도 그 특성상 보행자의 외곽부분이 배경부분이나, 보행자의 내부영역보다 객체 인식에 대한 가중치가 높은 영역임을 알 수 있다.The feature selection process using the Symmetry feature is the same as the selection process using the HOG feature. In the case of the symmetry feature, it can be seen that the outer portion of the pedestrian is a region having a higher weight for object recognition than the background portion or the inner region of the pedestrian have.
본 발명에 따르면, 여러 특징들을 이용하여 인식 성능을 높이고자 할 때, 각 특징 별로 가중치가 높지 않은 부분은 사용하지 않고 처리해야 하는 특징의 용량을 줄이고 처리 속도를 높일 수 있는 이점이 있다.According to the present invention, when the recognition performance is enhanced by using various features, there is an advantage that the capacity of the feature to be processed without increasing the weight of each feature is reduced and the processing speed is increased.
이하, 도 2 및 도 4를 참조하여 본 발명의 실시예에 따른 객체 인식방법을 설명한다. 도 4는 본 발명의 실시예에 따른 객체 인식방법을 설명하기 위한 순서도이다.Hereinafter, an object recognition method according to an embodiment of the present invention will be described with reference to FIG. 2 and FIG. 4 is a flowchart illustrating an object recognition method according to an embodiment of the present invention.
도 4를 참조하면, 단계 S100에서, 특징 추출부(100)는 객체 인식의 대상이 되는 포지티브 학습영상에 대한 화소별 제1 특징 값 및 상기 포지티브 입력영상에 대한 대조군인 네거티브 학습영상에 대한 화소별 제2 특징 값을 추출한다.Referring to FIG. 4, in step S100, the feature extraction unit 100 extracts a first feature value for each pixel of a positive learning image, which is an object to be recognized, and a second feature value for each pixel for a negative learning image, which is a control group for the positive input image. And extracts a second feature value.
단계 S200에서, 특징값 중첩부(200)는 상기 특징 추출부(100)에서 추출된 상기 포지티브 학습영상에 대한 제1 특징 값과, 상기 네거티브 학습영상에 대한 제2 특징 값을 대응되는 화소 위치별로 중첩한다.In step S200, the feature
단계 S300에서, 특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출한다. In step S300, the feature
예컨대, 특징 차분 산출부(300)는 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출할 수 있다.For example, the
단계 S400에서, 특징 선별부(400)는 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징을 선별한다. 여기서, 산출된 차분은 객체 인식에 사용될 특징의 가중치를 의미한다. 즉, 가중치가 높은 특징을 선별하여 객체 인식에 사용함으로써, 특징의 전체적인 용량을 줄여 처리속도를 향상시킬 수 있다. In step S400, the
한편, 상술한 본 발명에 따른 객체 인식방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the object recognition method according to the present invention described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, there may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device and the like. The computer-readable recording medium may also be distributed and executed in a computer system connected to a computer network and stored and executed as a code that can be read in a distributed manner.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.
100 : 특징 추출부
200 : 특징 값 중첩부
300 : 특징 차분 산출부
400 : 특징 선별부100: Feature extraction unit
200: feature value superposition part
300: feature difference calculating section
400: Characteristic selection unit
Claims (11)
화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 특징 값 중첩부;
대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 특징 차분 산출부; 및
산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 특징 선별부
를 포함하는 객체 인식장치.
A feature extraction unit for extracting a first feature value for each pixel of the positive learning image as an object of object recognition and a second feature value for each pixel of a negative learning image as a control group for the positive learning image;
A feature value superposition unit for superposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis;
A feature difference calculating unit for calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And
And a feature selection unit for selecting a position of a feature to be used for object recognition based on the calculated size of the difference
The object recognition apparatus comprising:
상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 화소별로 구배 벡터를 구하고, 구배 벡터의 강도(magnitude) 및 방향 정보(orientation)를 산출하는 것인 객체 인식장치.
The apparatus according to claim 1,
Wherein a gradient vector is obtained for each pixel in the positive learning image and the negative learning image, and the magnitude and orientation of the gradient vector are calculated.
상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 화소별로 intensity, corner, color, disparity, symmetry 중 적어도 하나의 특징을 추출하는 것인 객체 인식장치.
The apparatus according to claim 1,
Wherein at least one of intensity, corner, color, disparity, and symmetry is extracted for each pixel in the positive learning image and the negative learning image.
대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 것
인 객체 인식장치.
The image processing apparatus according to claim 1,
Calculating a difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation
In object recognition device.
기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것
인 객체 인식장치.
The apparatus according to claim 1,
Selecting a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition
In object recognition device.
산출된 차분을 오름차순 혹은 내림차순으로 정렬하는 것인 객체 인식장치.
The apparatus according to claim 1,
And sorts the calculated difference in ascending or descending order.
정렬된 차분에서, 기 설정된 선별 비율에 해당하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 것
인 객체 인식장치.
7. The apparatus according to claim 6,
In the sorted difference, a position having a difference corresponding to a predetermined sorting ratio is selected as a position of a feature to be used for object recognition
In object recognition device.
(b) 화소별로 추출된 상기 제1 특징 값 및 상기 제2 특징 값을 대응되는 위치별로 중첩하는 단계
(c) 대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 산출하는 단계; 및
(d) 산출된 차분의 크기에 기초하여, 객체 인식에 사용할 특징의 위치를 선별하는 단계
를 포함하는 객체 인식방법.
(a) extracting, for each pixel, a first feature value for a positive learning image to be an object recognition object and a second feature value for each pixel for a negative learning image, which is a control group for the positive learning image;
(b) superimposing the first feature value and the second feature value extracted for each pixel on a corresponding position basis
(c) calculating a difference between the first feature value and the second feature value superimposed for each corresponding position; And
(d) selecting a position of a feature to be used for object recognition based on the calculated size of the difference
/ RTI >
대응되는 위치별로 중첩된 상기 제1 특징 값과 상기 제2 특징 값 사이의 차분을 difference 연산, absolute difference 연산, square of absolute difference 연산 중 어느 하나를 이용하여 산출하는 단계를 포함하는 것
인 객체 인식방법.
9. The method of claim 8, wherein the step (c)
And calculating the difference between the first feature value and the second feature value superimposed for each corresponding position by using any one of a difference operation, an absolute difference operation, and a square of absolute difference operation
In object recognition method.
기 설정된 임계 값을 초과하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것
인 객체 인식방법.
9. The method of claim 8, wherein step (d)
And selecting a position having a difference exceeding a predetermined threshold value by a position of a feature to be used for object recognition
In object recognition method.
산출된 차분을 오름차순 혹은 내림차순으로 정렬하고 정렬된 차분에서, 기 설정된 선별 비율에 해당하는 차분을 갖는 위치를 객체인식에 사용할 특징의 위치로 선별하는 단계를 포함하는 것
인 객체 인식방법.9. The method of claim 8, wherein step (d)
Sorting the calculated difference in ascending or descending order, and sorting the sorted difference by the position of the feature to be used in object recognition, the position having a difference corresponding to the predetermined sorting ratio
In object recognition method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140140741A KR101611267B1 (en) | 2014-10-17 | 2014-10-17 | Method for object recognition and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140140741A KR101611267B1 (en) | 2014-10-17 | 2014-10-17 | Method for object recognition and apparatus thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101611267B1 true KR101611267B1 (en) | 2016-04-11 |
Family
ID=55800785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140140741A KR101611267B1 (en) | 2014-10-17 | 2014-10-17 | Method for object recognition and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101611267B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101802500B1 (en) | 2016-10-20 | 2017-11-28 | 재단법인대구경북과학기술원 | Learning device for improving image recogntion performance and learning method thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007074600A1 (en) | 2005-12-26 | 2007-07-05 | Nec Corporation | Feature extraction device, feature extraction method, and feature extraction program |
-
2014
- 2014-10-17 KR KR1020140140741A patent/KR101611267B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007074600A1 (en) | 2005-12-26 | 2007-07-05 | Nec Corporation | Feature extraction device, feature extraction method, and feature extraction program |
Non-Patent Citations (1)
Title |
---|
Constrained Local Model for Face Alignment, a Tutorial |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101802500B1 (en) | 2016-10-20 | 2017-11-28 | 재단법인대구경북과학기술원 | Learning device for improving image recogntion performance and learning method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lalonde et al. | Detecting ground shadows in outdoor consumer photographs | |
US9269155B2 (en) | Region growing method for depth map/color image | |
US9317784B2 (en) | Image processing apparatus, image processing method, and program | |
JP5775225B2 (en) | Text detection using multi-layer connected components with histograms | |
US9740965B2 (en) | Information processing apparatus and control method thereof | |
CN107705288A (en) | Hazardous gas spillage infrared video detection method under pseudo- target fast-moving strong interferers | |
KR101436369B1 (en) | Apparatus and method for detecting multiple object using adaptive block partitioning | |
CN107944403B (en) | Method and device for detecting pedestrian attribute in image | |
Wang et al. | Car license plate detection based on MSER | |
Sridevi et al. | A survey on monochrome image segmentation methods | |
KR101753360B1 (en) | A feature matching method which is robust to the viewpoint change | |
Katramados et al. | Real-time visual saliency by division of gaussians | |
CN108960247B (en) | Image significance detection method and device and electronic equipment | |
Samopa et al. | Hybrid image thresholding method using edge detection | |
US8891879B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011165170A (en) | Object detection device and program | |
CN111695373B (en) | Zebra stripes positioning method, system, medium and equipment | |
KR102195940B1 (en) | System and Method for Detecting Deep Learning based Human Object using Adaptive Thresholding Method of Non Maximum Suppression | |
KR101611267B1 (en) | Method for object recognition and apparatus thereof | |
CN106446832B (en) | Video-based pedestrian real-time detection method | |
KR101106448B1 (en) | Real-Time Moving Object Detection For Intelligent Visual Surveillance | |
KR101741761B1 (en) | A classification method of feature points required for multi-frame based building recognition | |
CN112101260B (en) | Method, device, equipment and storage medium for identifying safety belt of operator | |
Fatichah et al. | Optical flow feature based for fire detection on video data | |
Zukal et al. | Evaluation of interest point detectors for scenes with changing lightening conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190325 Year of fee payment: 4 |