KR101847175B1 - Method for object recognition and apparatus thereof - Google Patents

Method for object recognition and apparatus thereof Download PDF

Info

Publication number
KR101847175B1
KR101847175B1 KR1020150030523A KR20150030523A KR101847175B1 KR 101847175 B1 KR101847175 B1 KR 101847175B1 KR 1020150030523 A KR1020150030523 A KR 1020150030523A KR 20150030523 A KR20150030523 A KR 20150030523A KR 101847175 B1 KR101847175 B1 KR 101847175B1
Authority
KR
South Korea
Prior art keywords
local
image
pattern
lipcc
patterns
Prior art date
Application number
KR1020150030523A
Other languages
Korean (ko)
Other versions
KR20160107590A (en
Inventor
임영철
강민성
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020150030523A priority Critical patent/KR101847175B1/en
Publication of KR20160107590A publication Critical patent/KR20160107590A/en
Application granted granted Critical
Publication of KR101847175B1 publication Critical patent/KR101847175B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06K9/00624
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6256
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Abstract

국부 중요 패턴 군집 코드를 이용한 객체 인식방법 및 이를 이용한 객체 인식장치가 개시된다. 본 발명에 따른 객체 인식장치는, 임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성하는 패턴 부호화부; 및 임의의 학습 영상에서 추출된 국부 패턴을 상기 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성하는 학습부를 포함한다.An object recognition method using local significance pattern cluster code and an object recognition apparatus using the same are disclosed. An object recognition apparatus according to the present invention includes: a pattern coding unit for generating a lookup table for converting N local patterns (LTP) extracted from an arbitrary learning image into M codes; And a learning unit for generating a classifier for classifying a class of a feature vector by converting a local pattern extracted from an arbitrary learning image into a predetermined code using the lookup table and inputting a feature vector corresponding to the converted code, .

Description

객체 인식방법 및 이를 이용한 객체 인식장치{METHOD FOR OBJECT RECOGNITION AND APPARATUS THEREOF}METHOD FOR OBJECT RECOGNITION AND APPARATUS THEREOF FIELD OF THE INVENTION [0001]

본 발명은 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것으로서, 보다 상세하게는 국부 중요 패턴 군집 코드를 이용한 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것이다.The present invention relates to an object recognition method and an object recognition apparatus using the same, and more particularly, to an object recognition method using a local significance pattern cluster code and an object recognition apparatus using the same.

최근 컴퓨터 비전 분야에서는 지능형 자동차, 로봇, 감시 카메라, 게임 등의 분야에 적용하기 위하여 차량, 보행자, 얼굴 등의 다양한 객체를 인식하고 검출하는 기술에 대한 연구가 많이 진행되고 있다. Recently, in the field of computer vision, many researches have been conducted to recognize and detect various objects such as a vehicle, a pedestrian, and a face in order to be applied to the fields of intelligent automobiles, robots, surveillance cameras, and games.

영상에서 특정 객체의 검출은 위해서는 도 1에 도시된 바와 같이 사전에 학습된 모델을 이용하여, 전체 영상을 탐색하면서 객체에 해당되는 영역을 인식하는 과정으로 이루어진다. 도 1에 도시된 바와 같은 일반적인 객체 인식 방법은, 학습 단계와 테스트 단계로 나누어진다. In order to detect a specific object in an image, as shown in FIG. 1, a process of recognizing an area corresponding to the object while searching the entire image using a previously learned model is performed. A general object recognition method as shown in FIG. 1 is divided into a learning step and a test step.

학습 단계에서는 양성(positive) 학습 영상과 네거티브(negative) 학습 영상에 대하여 특징 벡터를 추출하여, 인식률이 최대가 되는 분류기(classifier)의 매개변수(parameter)를 추정한다.In the learning phase, feature vectors are extracted for positive learning images and negative learning images, and the parameter of the classifier that maximizes the recognition rate is estimated.

테스트 단계에서는 임의의 테스트 영상에 대하여, 특징 벡터를 추출하고, 생성된 분류기의 출력 값에 따라 포지티브 영상인지, 네거티브 영상인지를 결정한다.In the test step, a feature vector is extracted for an arbitrary test image, and a positive image or a negative image is determined according to the output value of the generated classifier.

강건한 객체 인식을 위해서는 분별성(discrimination)이 뛰어난 특징 벡터(feature vector)를 학습 영상(training images)에서 추출하고, support vector machine(SVM), boosting, random forest와 같은 기계 학습(machine learning)을 이용하여, 최적의 분류기(classifier)를 학습하는 것이 핵심이다.For robust object recognition, feature vectors with superior discrimination are extracted from training images, and machine learning such as support vector machine (SVM), boosting, and random forest is used , It is essential to learn the optimal classifier.

기존의 객체 인식 기술에서는 기울기(gradient) 기반의 특징 벡터와 텍스쳐 (texture) 기반의 특징 벡터를 사용하는 방법들이 많이 사용되고 있다. Histogram of oriented gradient (HOG)는 대표적인 기울기 기반의 특징 벡터로서, 영상에서 기울기의 방향 성분을 셀 (Cell) 단위로 누적하여 특징벡터를 추출함으로써, 다양한 외부 환경 조건에서도 강건한 객체 인식 성능을 제공한다. 하지만, 기울기 크기와 방향 성분을 추출하기 위해서는 많은 연산량이 요구되기 때문에, 실시간 객체 검출 시스템에 적용하기에는 어려운 문제가 있다. In the conventional object recognition techniques, gradient-based feature vectors and texture-based feature vectors are widely used. The Histogram of Oriented Gradient (HOG) is a representative gradient-based feature vector, which extracts feature vectors by accumulating directional components of a gradient in a cell to provide robust object recognition performance under various external environmental conditions. However, since a large amount of computation is required to extract the gradient magnitude and the direction component, there is a problem that is difficult to apply to a real-time object detection system.

텍스쳐(texture) 기반의 대표적인 특징 추출 방법인 local binary pattern (LBP)은 간단한 연산 처리로 특징 벡터 추출이 가능하고, 조명 변화에도 강건한 장점이 있다. 하지만, 영상 잡음에 취약한 단점으로 인해 HOG에 비하여 인식 성능이 다소 떨어지는 단점이 있다. 이러한, 단점을 극복하기 위해서 local ternary pattern(LTP) 방법이 제안되었지만, 패턴의 수가 급격하게 증가됨으로써, 블록 히스토그램(block histogram)을 생성할 때, 특징 벡터 차원의 수(dimensionality)가 증가되는 문제가 발생한다.The local binary pattern (LBP), which is a typical feature extraction method based on texture, is capable of extracting feature vectors by a simple arithmetic processing and has advantages of being robust against illumination change. However, there is a disadvantage that recognition performance is somewhat lower than that of HOG due to weakness of image noise. Although the local ternary pattern (LTP) method has been proposed to overcome these disadvantages, the problem that the dimensionality of the feature vector dimension is increased when the block histogram is generated by the sudden increase in the number of patterns Occurs.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여, 다양한 외부 환경 조건에서도 객체 인식 성능과 연산 속도를 향상시킬 수 있는 텍스쳐 기반의 특징 벡터를 추출하고, 국부 중요 패턴 군집 코드 (local important pattern clustering code : LIPCC)를 이용한 객체 인식방법 및 이를 이용한 객체 인식장치를 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the problems of the conventional art described above by extracting a texture-based feature vector capable of improving object recognition performance and operation speed even under various external environmental conditions, : LIPCC) and an object recognition apparatus using the same.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 면에 따른 객체 인식장치는, 임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성하는 패턴 부호화부; 및 임의의 학습 영상에서 추출된 국부 패턴을 상기 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성하는 학습부를 포함한다.According to an aspect of the present invention, there is provided an object recognition apparatus including: a lookup table for converting N local patterns (LTP) extracted from an arbitrary learning image into M codes; A pattern coding unit for generating a pattern; And a learning unit for generating a classifier for classifying a class of a feature vector by converting a local pattern extracted from an arbitrary learning image into a predetermined code using the lookup table and inputting a feature vector corresponding to the converted code, .

상기 패턴 부호화부는, 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상을 LTP(Local Ternary Pattern) 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하고, n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성한다.Wherein the pattern coding unit converts a positive learning image to be a target of object recognition and a negative learning image to be a control group for the positive learning image into an LTP (Local Ternary Pattern) image, divides the LTP image into n blocks, and n And generates an LTP block histogram for each block.

또한, 상기 패턴 부호화부는, 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정한다.The pattern coding unit cumulatively averages the LTP block histograms for each of the n blocks and calculates the importance of the k-th local pattern for the j-th block to determine M-1 most significant local patterns.

또한, 상기 패턴 부호화부는, 상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 코드와 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에 해당하는 LIPCC를 할당한다.In addition, the pattern coding unit may assign a local significance pattern (LIPCC) code to each of the M-1 highest significant local patterns sequentially, The LIPCC corresponding to the remaining local patterns is allocated based on the distance between the most significant local code and the remaining local patterns.

또한, 상기 패턴 부호화부는, 상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당한다.In addition, the pattern encoding unit allocates LIPCCs for the highest significant local pattern at a distance closest to the remaining local patterns.

또한, 상기 패턴 부호화부, 상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 M번째 LIPCC를 할당한다.The M-th LIPCC is allocated to the remaining local patterns in which the distance between the M-1 most significant local patterns and the remaining local patterns is equal to or greater than a preset threshold value.

상기 학습부는, 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 LTP를 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC) 룩업-테이블을 이용하여 M개의 LIPCC로 변환하고, 영상 블록 별로 생성된 LIPCC 블록 히스토그램을 이용하여 특징 벡터를 학습한다.The learning unit compares N LTPs extracted from the positive learning image, which is a target of object recognition, and the negative learning image, which is a control group of the positive learning image, with a LUT (Local Important Pattern Clustering Code) And the feature vector is learned by using the LIPCC block histogram generated for each image block.

본 발명의 일 면에 따른 객체 인식장치는, 입력된 테스트 영상에서 상기 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 객체 인식부를 더 포함할 수 있다.According to an aspect of the present invention, there is provided an object recognition apparatus for generating an LIPCC block histogram for each image block using the lookup table in an input test image, and the feature vector corresponding to the LIPCC block histogram using the classifier is a positive An object recognition unit for determining whether the feature vector of the image is a feature vector or a feature vector of the negative image.

한편, 본 발명의 다른 면에 따른 객체 인식방법은, (a) 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)로 변환하는 LIPCC 룩업-테이블을 생성하는 단계; (b) 상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 추출된 상기 N개의 LTP를 상기 LIPCC 룩업-테이블을 이용하여 M개의 LIPCC로 변환하는 단계; 및 (c) 상기 M개의 LIPCC를 이용하여 영상 블록 별로 LIPCC 블록 히스토그램 생성하고, 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터를 학습한 분류기를 생성하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of recognizing an object, comprising the steps of: (a) extracting N local patterns extracted from a negative learning image, which is a control group for the positive learning image, LTPCC look-up table for converting LTPCC to L local critical pattern clustering codes (LIPCC); (b) converting the N LTPs extracted from the positive learning image and the negative learning image into M LIPCCs using the LIPCC lookup-table; And (c) generating a LIPCC block histogram for each of the image blocks using the M LIPCCs and generating a classifier for learning a feature vector corresponding to the LIPCC block histogram.

상기 (a) 단계는, 상기 포지티브 학습영상 및 상기 네거티브 학습영상을 LTP 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하는 단계와, 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성하는 단계와, 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정하는 단계와, 상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 패턴과 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에 해당하는 LIPCC를 할당하는 단계를 포함한다.The step (a) includes the steps of: converting the positive learning image and the negative learning image into LTP images, dividing the LTP image into n blocks, generating an LTP block histogram for each of the n blocks Calculating an M-1 highest significant local pattern by cumulatively averaging the LTP block histograms for each of the n blocks to calculate a significance of a k-th local pattern for a j-th block, (LIPCC) is assigned to each of the most significant local patterns of the M-1 highest significant local patterns, and the distance between the M-1 most significant local patterns and the remaining local patterns calculated based on the clustering technique And allocating the LIPCC corresponding to the remaining local patterns.

또한, 상기 (a) 단계는, 상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당하는 단계와, 상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 M번째 LIPCC를 할당한다.The step (a) further includes the steps of: allocating a LIPCC for a most significant local pattern at a distance closest to the remaining local patterns; and determining a distance between the M-1 most significant local patterns and the remaining local patterns, The M-th LIPCC is allocated to the remaining local patterns that are equal to or greater than the predetermined threshold value T.

본 발명의 다른 면에 따른 객체 인식방법은, (d) 입력된 테스트 영상에서 상기 LIPCC 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method for recognizing an object, comprising the steps of: (d) generating a LIPCC block histogram for each image block using the LIPCC lookup table in an input test image; And determining whether the feature vector is a feature vector of the positive image or a feature vector of the negative image.

이상 상술한 바와 같은 본 발명에 따르면, 텍스쳐 기반의 특징 벡터가 갖고 있는 문제점, 특히 LTP 특징 벡터의 차원 수 증가 문제를 효과적으로 극복하고, 기울기 기반의 특징 벡터보다 뛰어난 인식 성능을 제공하면서도 연산 시간과 성능을 동시에 향상시킬 수 있다.As described above, according to the present invention, it is possible to effectively overcome the problem of texture-based feature vectors, in particular, the problem of increasing the number of dimensions of LTP feature vectors, and to provide recognition performance superior to gradient-based feature vectors, Can be improved at the same time.

도 1에는 종래 기술에 따른 객체 인식 시스템의 객체 인식 방법을 도시한 도면.
도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도.
도 3은 도 2의 패턴 부호화부가 국부 중요 패턴 군집 코드 룩업 테이블을 생성하는 과정을 도시한 흐름도.
도 4는 도 2의 패턴 부호화부가 국부 중요 패턴 군집 코드 룩업 테이블을 생성하는 과정을 도시한 예시도.
도 5는 도 2의 학습부가 학습영상으로부터 2개의 클래스를 분류하기 위한 분류기를 생성하는 과정을 도시한 예시도.
도 6은 도 2의 객체 인식부가 테스트 영상으로부터 객체를 인식하는 과정을 도시한 예시도.
1 illustrates an object recognition method of an object recognition system according to the prior art.
2 is a block diagram illustrating an object recognition apparatus according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating a process of generating a local significance pattern grouping code lookup table in the pattern encoding unit of FIG. 2;
FIG. 4 is a diagram illustrating a process of generating the local significance pattern grouping code lookup table in the pattern encoding unit of FIG. 2;
FIG. 5 is a diagram illustrating a process of generating a classifier for classifying two classes from the learning unit image of FIG. 2;
FIG. 6 is an exemplary diagram illustrating a process of recognizing an object from a test image of the object recognition unit of FIG. 2;

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도이다.2 is a block diagram illustrating an object recognition apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명에 따른 객체 인식장치는 패턴 부호화부(100), 학습부(200), 객체 인식부(300)를 포함하여 구성된다. Referring to FIG. 2, an object recognition apparatus according to the present invention includes a pattern coding unit 100, a learning unit 200, and an object recognition unit 300.

패턴 부호화부(100)는 임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성한다. The pattern coding unit 100 generates a look-up table for converting N local patterns (LTP) extracted from an arbitrary learning image into M codes.

이때, 패턴 부호화부(100)는 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 텍스쳐 기반의 N개의 국부 패턴을 추출할 수 있으며, 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)로 변환하기 위한 LIPCC 룩업-테이블을 생성한다.At this time, the pattern coding unit 100 can extract N local patterns based on the texture in the positive learning image, which is the target of object recognition, and the negative learning image, which is a control group for the positive learning image, and extracts the N local patterns (LIPCC lookup-table) for converting a Local Ternary Pattern (LTP) into M Local Important Pattern Clustering Codes (LIPCC).

도 3 및 도 4에는 상기 패턴 부호화부(100)가 상기 LIPCC 룩업-테이블을 생성하기 위한 구체적인 과정이 도시된다. 이하, 도 3 및 도 4를 참조하여 상기 패턴 부호화부(100)가 LIPCC 룩업-테이블을 생성하는 과정(패턴 부호화 과정)을 살펴본다.
FIGS. 3 and 4 illustrate a concrete procedure for the LIPCC lookup table generated by the pattern coding unit 100. FIG. Hereinafter, a process of generating the LIPCC lookup-table by the pattern encoding unit 100 (pattern encoding process) will be described with reference to FIGS. 3 and 4. FIG.

패턴 부호화 과정Pattern coding process

도 3 및 도 4에 도시된 바와 같이, 먼저 상기 패턴 부호화부(100)에는 포지티브 학습영상(A) 및 네거티브 학습영상(B)이 입력된다(S110, S210).3 and 4, a positive learning image A and a negative learning image B are input to the pattern coding unit 100 (S110 and S210).

이어, 상기 패턴 부호화부(100)는 입력된 포지티브 학습영상(A) 및 네거티브 학습영상(B) 각각을 LTP 영상(A',B')으로 변환하고, 변환된 LTP 영상(A',B') 각각을 n개의 블록으로 분할한다(S120, S220).The pattern coding unit 100 converts the input positive learning image A and the input negative learning image B into LTP images A 'and B', and outputs the converted LTP images A 'and B' Are divided into n blocks (S120 and S220).

이어, 상기 패턴 부호화부(100)는 n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성한다(S130, S230). 예컨대, 도 3에 도시된 바와 같이 n개의 블록을 B1, B2,…,Bn이라 한다면 이들 블록 각각에 대한 LTP 블록 히스토그램이 생성된다. The pattern coding unit 100 generates an LTP block histogram for each of n blocks (S130 and S230). For example, as shown in FIG. 3, n blocks B1, B2, ... , Bn, an LTP block histogram for each of these blocks is generated.

이어, 상기 패턴 부호화부(100)는 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산한다(S300).Then, the pattern coding unit 100 cumulatively averages the LTP block histograms of the n blocks to calculate the importance of the kth local pattern for the jth block (S300).

예컨대, 상기 j번째 블록에 대한 k번째 국부 패턴의 중요도를

Figure 112015021541340-pat00001
라 한다면,
Figure 112015021541340-pat00002
는 아래 수학식 1에서와 같이 연산될 수 있다. For example, if the importance of the k-th local pattern for the j-th block is
Figure 112015021541340-pat00001
However,
Figure 112015021541340-pat00002
Can be calculated as shown in Equation (1) below.

[수학식 1][Equation 1]

Figure 112015021541340-pat00003
Figure 112015021541340-pat00003

Figure 112015021541340-pat00004
Figure 112015021541340-pat00004

여기서,

Figure 112015021541340-pat00005
Figure 112015021541340-pat00006
는 포지티브 및 네거티브 학습 영상의 개수를 나타내고,
Figure 112015021541340-pat00007
Figure 112015021541340-pat00008
i번째 포지티브 및 네거티브 학습 영상에서 j번째 블록에 대한 k번째 패턴의 누적된 개수를 나타낸다.
Figure 112015021541340-pat00009
는 패턴의 전체 빈도수와 패턴 빈도수 차이간의 가중치를 결정하는 상수이다.here,
Figure 112015021541340-pat00005
Wow
Figure 112015021541340-pat00006
Represents the number of positive and negative learning images,
Figure 112015021541340-pat00007
Wow
Figure 112015021541340-pat00008
Represents the cumulative number of the kth pattern for the jth block in the i < th > positive and negative learning images.
Figure 112015021541340-pat00009
Is a constant that determines the weight between the total frequency of the pattern and the pattern frequency difference.

전술한 과정을 통해 국부 패턴의 중요도가 결정되면, 상기 패턴 부호화부(100)는 중요도에 따라 최상위 중요 국부 패턴을 결정한다(S400). 전술한 바와 같이 N개의 국부 패턴을 M개의 코드로 변환하는 룩업-테이블을 생성하고자 하는 경우, 상기 패턴 부호화부(100)는 국부 패턴의 중요도를 이용하여 M-1개의 최상위 국부 중요 패턴을 결정한다. When the importance of the local pattern is determined through the above-described process, the pattern coding unit 100 determines the highest significant local pattern according to the importance (S400). As described above, when it is desired to generate a look-up table for converting N local patterns into M codes, the pattern coding unit 100 determines M-1 most significant local significance patterns using the importance of local patterns .

이어, 상기 패턴 부호화부(100)는 군집화 기법을 이용하여 국부 패턴 각각에 코드(예컨대, 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC))를 할당한다(S500).In step S500, the pattern coding unit 100 assigns a code (e.g., a Local Important Pattern Clustering Code (LIPCC)) to each of the local patterns using a clustering technique.

먼저, 상기 패턴 부호화부(100)는 상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드를 할당한다. 예컨대, 상기 M개의 국부 중요 패턴 군집 코드가 0,1,…,M-1의 코드 네임을 가진다면, 상기 M-1개의 최상위 중요 국부 패턴 각각에는 순서대로 0에서부터 M-2까지의 국부 중요 패턴 군집 코드가 할당될 수 있다. First, the pattern coding unit 100 sequentially assigns a local significance pattern cluster code to each of the M-1 highest-order significant local patterns. For example, if the M local significance pattern cluster codes are 0, 1, ... , And M-1, the local significance pattern cluster codes of 0 to M-2 may be sequentially allocated to each of the M-1 most significant local patterns.

그리고, 상기 패턴 부호화부(100)는 나머지 국부 패턴에 대해서는 군집화 기법에 기반하여 연산된 거리에 기반하여 국부 중요 패턴 군집 코드를 할당한다. The pattern coding unit 100 allocates the local significance pattern cluster code to the remaining local patterns based on the distance calculated based on the clustering technique.

예컨대, 나머지 국부 패턴들과 기존의 코드가 할당된 최상위 중요 국부 패턴들 간의 거리를

Figure 112015021541340-pat00010
라 한다면, 나머지 국부 패턴들과 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 국부 중요 패턴 군집 코드가 해당 나머지 국부 패턴에 할당된다. For example, if the distance between the remaining local patterns and the most significant local patterns assigned to the existing code is
Figure 112015021541340-pat00010
, A local significance pattern cluster code for the highest significant local pattern closest to the remaining local patterns is assigned to the corresponding remaining local pattern.

한편, 상기 패턴 부호화부(100)는 상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 상기 M-1개의 최상위 중요 국부 패턴에 할당되지 않은 나머지 코드, 예컨대 M-1의 코드를 할당한다.The pattern coding unit 100 applies the M-1 highest significant local stationary patterns to the remaining local patterns in which the distance between the M-1 most significant local patterns and the remaining local patterns is equal to or greater than a preset threshold T, And allocates a remaining code not assigned to the pattern, for example, code of M-1.

즉, 중요하지 않고, 기존 최상위 패턴간의 유사도가 떨어지는 패턴들은 하나의 코드로 할당시킨다. 결과적으로, 모든 국부 패턴에 대하여, M개의 코드로 할당된 LIPCC 룩업 테이블(C)이 생성된다(S600).
That is, patterns that are not important and whose degree of similarity between existing top patterns is low are assigned to one code. As a result, for all local patterns, a LIPCC look-up table C allocated with M codes is generated (S600).

다시 도 2로 돌아가 설명하면, 상기 학습부(200)는 임의의 학습 영상에서 추출된 특징벡터를 이용하여, 두 개의 클래스를 분류할 수 있는 최적의 초평면(Hyper plane)을 추정한다.Referring again to FIG. 2, the learning unit 200 estimates an optimal hyperplane capable of classifying the two classes using the feature vectors extracted from an arbitrary learning image.

즉, 상기 학습부(200)는 임의의 학습 영상에서 추출된 국부 패턴을 상기 패턴 부호화부(100)에서 생성된 LIPCC 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성한다. That is, the learning unit 200 converts the local pattern extracted from an arbitrary learning image into a predetermined code using the LIPCC lookup-table generated in the pattern coding unit 100, and outputs a characteristic corresponding to the converted code And a classifier for classifying the class of the feature vector is generated.

이하, 도 5를 참조하여 상기 학습부(200)가 학습영상으로부터 2개의 클래스를 분류하기 위한 분류기를 생성하는 과정을 설명한다. Hereinafter, a process of generating a classifier for classifying two classes from the learning image by the learning unit 200 will be described with reference to FIG.

먼저, 상기 학습부(100)에는 포지티브 학습영상(A) 및 네거티브 학습영상(B)이 입력되고, 입력된 포지티브 학습영상(A) 및 네거티브 학습영상(B) 각각은 LTP 영상(A',B')으로 변환된다.First, a positive learning image A and a negative learning image B are input to the learning unit 100. The input positive learning image A and the input negative learning image B are input to the LTP images A 'and B ').

이어, 상기 학습부(100)는 변환된 LTP 영상(A',B') 각각을 n개의 블록으로 분할하고, n개의 블록 각각에서 추출된 국부 패턴(LTP)를 상기 패턴 부호화부(100)에서 생성된 LIPCC 룩업-테이블을 이용하여 M개의 국부 중요 패턴 군집 코드(LIPCC)로 변환한다.Then, the learning unit 100 divides each of the converted LTP images A 'and B' into n blocks, and outputs the local pattern LTP extracted from each of the n blocks to the pattern coding unit 100 And converts it into M local significance pattern clustering codes (LIPCC) using the generated LIPCC lookup table.

이어, 상기 학습부(100)는 n개의 블록 각각에 대한 LIPCC 블록 히스토그램을 생성하고, 이를 순차적으로 연쇄(concatenation)함으로써, 입력된 학습영상을 표현하기 위한 특징벡터들을 추출한다. Then, the learning unit 100 generates LIPCC block histograms for each of the n blocks, and concatenates the LIPCC block histograms sequentially, thereby extracting feature vectors for expressing the input learning image.

이때, 상기 특징벡터들은 분류기의 입력으로 사용되며, 상기 학습부(100)는 두 개의 클래스를 최대로 분류할 수 있는 분류기의 매개 변수를 결정한다. 여기서, 분류기는 support vector matching (SVM), Adaboost (Adaptive boosting), multi-layer perceptron (MLP), random forest 등이 사용될 수 있다. 아래 수학식 2는 선형 SVM을 사용할 경우, 최대 마진을 갖는 분류기를 추정하는 수식이다.
At this time, the feature vectors are used as inputs to the classifier, and the learning unit 100 determines the parameters of the classifier capable of classifying the two classes to the maximum. Here, the classifier can be support vector matching (SVM), Adaboost (adaptive boosting), multi-layer perceptron (MLP), and random forest. Equation (2) below is a formula for estimating a classifier having a maximum margin when a linear SVM is used.

[수학식 2]&Quot; (2) "

Figure 112015021541340-pat00011
Figure 112015021541340-pat00011

여기서,

Figure 112015021541340-pat00012
는 분류기의 매개 변수를 나타내며,
Figure 112015021541340-pat00013
는 i번째 샘플에 대한 클래스 라벨(label),
Figure 112015021541340-pat00014
는 i번째 샘플에 대한 특징 벡터, b는 분류기의 바이어스(bias)를 나타낸다. here,
Figure 112015021541340-pat00012
Represents the parameter of the classifier,
Figure 112015021541340-pat00013
Is the class label for the i < th > sample,
Figure 112015021541340-pat00014
Is the feature vector for the i-th sample, and b is the bias of the classifier.

이와 같이, 두 개의 클래스를 최대로 분류할 수 있는 매개 변수가 결정됨으로써, 학습영상의 특징벡터가 최적으로 학습된 분류기(D)가 생성된다. In this way, a parameter capable of classifying the two classes to the maximum is determined, so that the classifier D in which the feature vector of the learning image is learned optimally is generated.

상기 객체 인식부(300)는 도 6에 도시된 바와 같이 입력된 테스트 영상(T)을 LTP 영상(T')으로 변환하고, 변환된 LTP 영상(T')에서 추출한 LTP를 상기 LIPCC 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별한다.6, the object recognizer 300 converts the input test image T into an LTP image T 'and outputs LTP extracted from the converted LTP image T' to the LIPCC lookup table The LIPCC block histogram is generated for each of the image blocks and the feature vector corresponding to the LIPCC block histogram is determined as a feature vector of the positive image or a feature vector of the negative image using the classifier.

한편, 상술한 본 발명에 따른 객체 인식방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the object recognition method according to the present invention described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, there may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device and the like. The computer-readable recording medium may also be distributed and executed in a computer system connected to a computer network and stored and executed as a code that can be read in a distributed manner.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

100 : 패턴 부호화부
200 : 학습부
300 : 객체 인식부
100: pattern coding unit
200:
300: Object recognition unit

Claims (12)

임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성하는 패턴 부호화부; 및
임의의 학습 영상에서 추출된 국부 패턴을 상기 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성하는 학습부를 포함하되,
상기 패턴 부호화부는,
객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상을 LTP(Local Ternary Pattern) 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하고, n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성하며,
상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정하되,
상기 국부 패턴의 중요도는 포지티브 및 네거티브 학습 영상의 개수, 상기 포지티브 및 네거티브 학습 영상에서 j번째 블록에 대한 k번째 국부 패턴의 누적된 개수, 상기 국부 패턴의 전체 빈도수 및 빈도수 차이간의 가중치에 기초하여 산출되는 것인 객체 인식장치.
A pattern coding unit for generating a lookup table for converting N local patterns (LTP) extracted from an arbitrary learning image into M codes; And
A learning unit for converting a local pattern extracted from an arbitrary learning image into a predetermined code using the look-up table, receiving a feature vector corresponding to the converted code, and generating a classifier for classifying the class of the feature vector Including,
Wherein the pattern encoding unit comprises:
A negative learning image as a target of object recognition and a negative learning image as a control group for the positive learning image is converted into an LTP (Local Ternary Pattern) image, the LTP image is divided into n blocks, Generates an LTP block histogram,
The LTP block histograms for each of the n blocks are cumulatively averaged to calculate the importance of the k-th local pattern for the j-th block to determine M-1 highest significant local patterns,
The importance of the local pattern is calculated based on the weight between the number of positive and negative learning images, the cumulative number of kth local patterns for the jth block in the positive and negative learning images, the total frequency of the local patterns, Lt; / RTI >
삭제delete 삭제delete 제1항에 있어서, 상기 패턴 부호화부는,
상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 패턴과 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에는 M번째 LIPCC를 할당하는 것인 객체 인식장치.
The apparatus of claim 1, wherein the pattern coding unit comprises:
(M-1) -th highest significant local patterns and (M-1) -th highest significant local patterns, which are calculated based on the clustering technique, And allocates an Mth LIPCC to the remaining local patterns based on the distance between the patterns.
제4항에 있어서, 상기 패턴 부호화부는,
상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당하는 것인 객체 인식장치.
The apparatus of claim 4, wherein the pattern coding unit comprises:
And assigns LIPCCs for the highest significant local pattern at a distance closest to the remaining local patterns.
제4항에 있어서, 상기 패턴 부호화부는,
상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 상기 M-1개의 최상위 중요 국부 패턴에 할당되지 않은 나머지 국부 패턴에는 M번째 LIPCC를 할당하는 것인 객체 인식장치.
The apparatus of claim 4, wherein the pattern coding unit comprises:
And a remaining local pattern in which the distance between the M-1 most significant local pattern and the remaining local pattern is equal to or greater than a preset threshold value T is allocated to the remaining local patterns not allocated to the M-1 most significant local pattern, Gt; LIPCC. ≪ / RTI >
제1항에 있어서, 상기 학습부는,
객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 LTP를 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC) 룩업-테이블을 이용하여 M개의 LIPCC로 변환하고, 영상 블록 별로 생성된 LIPCC 블록 히스토그램을 이용하여 특징 벡터를 학습하는 것인 객체 인식장치.
The apparatus according to claim 1,
The N LTPs extracted from the negative learning image as a target of object recognition and the negative learning image as a control group for the positive learning image are classified into M LTPCCs using a LIPCC lookup table LIPCC, and the feature vector is learned using the LIPCC block histogram generated for each image block.
제1항에 있어서,
입력된 테스트 영상에서 상기 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 객체 인식부를 더 포함하는 객체 인식장치.
The method according to claim 1,
A LIPCC block histogram is generated for each of the image blocks using the lookup table in the input test image, and a feature vector corresponding to the LIPCC block histogram is determined as a feature vector of a positive image or a feature vector of a negative image And an object recognizing unit for recognizing the object.
(a) 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)로 변환하는 LIPCC 룩업-테이블을 생성하는 단계;
(b) 상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 추출된 상기 N개의 LTP를 상기 LIPCC 룩업-테이블을 이용하여 M개의 LIPCC로 변환하는 단계; 및
(c) 상기 M개의 LIPCC를 이용하여 영상 블록 별로 LIPCC 블록 히스토그램 생성하고, 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터를 학습한 분류기를 생성하는 단계
상기 (a) 단계는,
객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상을 LTP(Local Ternary Pattern) 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하는 단계와,
상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성하는 단계와,
상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정하는 단계를 포함하되,
상기 국부 패턴의 중요도는 포지티브 및 네거티브 학습 영상의 개수, 상기 포지티브 및 네거티브 학습 영상에서 j번째 블록에 대한 k번째 국부 패턴의 누적된 개수, 상기 국부 패턴의 전체 빈도수 및 빈도수 차이간의 가중치에 기초하여 산출되는 것
인 객체 인식방법.
(a) Local temporal patterns (LTP) extracted from a negative learning image, which is a target of object recognition, and a negative learning image, which is a control group for the positive learning image, are divided into M local significance patterns Clustering Code (LIPCC);
(b) converting the N LTPs extracted from the positive learning image and the negative learning image into M LIPCCs using the LIPCC lookup-table; And
(c) generating a LIPCC block histogram for each of the image blocks using the M LIPCCs, and generating a classifier for learning a feature vector corresponding to the LIPCC block histogram
The step (a)
A negative learning image, which is a control group for the positive learning image, into an LTP (Local Ternary Pattern) image, and dividing the LTP image into n blocks;
Generating an LTP block histogram for each of the n blocks;
Accumulating a LTP block histogram for each of the n blocks to calculate an importance of a k-th local pattern for a j-th block to determine M-1 highest significant local patterns;
The importance of the local pattern is calculated based on the weight between the number of positive and negative learning images, the cumulative number of kth local patterns for the jth block in the positive and negative learning images, the total frequency of the local patterns, Being
In object recognition method.
제9항에 있어서, 상기 (a) 단계는,
상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 패턴과 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에 해당하는 LIPCC를 할당하는 단계를 포함하는 것
인 객체 인식방법.
10. The method of claim 9, wherein the step (a)
(M-1) -th highest significant local patterns and (M-1) -th highest significant local patterns, which are calculated based on the clustering technique, And allocating a LIPCC corresponding to the remaining local patterns based on the distance between the patterns
In object recognition method.
제10항에 있어서, 상기 (a) 단계는,
상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당하는 단계와,
상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 상기 M-1개의 최상위 중요 국부 패턴에 할당되지 않은 나머지 국부 패턴에는 M번째 LIPCC를 할당하는 단계를 더 포함하는 것
인 객체 인식방법.
11. The method of claim 10, wherein the step (a)
Assigning a LIPCC for a most significant local pattern at a distance closest to the remaining local patterns;
And a remaining local pattern in which the distance between the M-1 most significant local pattern and the remaining local pattern is equal to or greater than a preset threshold value T is allocated to the remaining local patterns not allocated to the M-1 most significant local pattern, Lt; RTI ID = 0.0 > LIPCC < / RTI >
In object recognition method.
제9항에 있어서,
(d) 입력된 테스트 영상에서 상기 LIPCC 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 단계
를 더 포함하는 객체 인식방법.
10. The method of claim 9,
(d) generating a LIPCC block histogram for each of the image blocks using the LIPCC look-up table in the input test image, and using the classifier, determining whether the feature vector corresponding to the LIPCC block histogram is a feature vector of the positive image, Determining whether the feature vector is a feature vector
The object recognition method further comprising:
KR1020150030523A 2015-03-04 2015-03-04 Method for object recognition and apparatus thereof KR101847175B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150030523A KR101847175B1 (en) 2015-03-04 2015-03-04 Method for object recognition and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150030523A KR101847175B1 (en) 2015-03-04 2015-03-04 Method for object recognition and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20160107590A KR20160107590A (en) 2016-09-19
KR101847175B1 true KR101847175B1 (en) 2018-04-09

Family

ID=57102953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150030523A KR101847175B1 (en) 2015-03-04 2015-03-04 Method for object recognition and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101847175B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102013439B1 (en) * 2017-12-04 2019-08-22 재단법인대구경북과학기술원 Method and apparatus of extracting feature based on contribution
KR102045026B1 (en) * 2018-02-12 2019-11-14 한양대학교 에리카산학협력단 Apparatus and method for detecting lane
KR102501883B1 (en) * 2018-07-06 2023-02-21 에임시스템 주식회사 System and method for fault classification of equipment based on machine learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jianfeng Ren 외 2명, Noise-Resistant Local Binary Pattern With an Embedded Error-Correction Mechanism, IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 22, NO. 10, 2013(2013.10)*
Sibt ul Hussain 외 2명, Face Recognition using Local Quantized Patterns, Brithish Machive Vision Conference, Sep 2012, United Kingdom (2012.09)*

Also Published As

Publication number Publication date
KR20160107590A (en) 2016-09-19

Similar Documents

Publication Publication Date Title
US10332266B2 (en) Method and device for traffic sign recognition
Pham et al. Count forest: Co-voting uncertain number of targets using random forest for crowd density estimation
US9501703B2 (en) Apparatus and method for recognizing traffic sign board
US11055538B2 (en) Object re-identification with temporal context
Sun et al. Detecting pedestrians and vehicles in traffic scene based on boosted HOG features and SVM
CN110659550A (en) Traffic sign recognition method, traffic sign recognition device, computer equipment and storage medium
KR101847175B1 (en) Method for object recognition and apparatus thereof
CN112668374A (en) Image processing method and device, re-recognition network training method and electronic equipment
KR102195940B1 (en) System and Method for Detecting Deep Learning based Human Object using Adaptive Thresholding Method of Non Maximum Suppression
CN109726621B (en) Pedestrian detection method, device and equipment
Singh et al. Unusual activity detection for video surveillance
Bardeh et al. New approach for human detection in images using histograms of oriented gradients
Zhang et al. Moving pedestrian detection based on motion segmentation
CN111027482A (en) Behavior analysis method and device based on motion vector segmentation analysis
EP4332910A1 (en) Behavior detection method, electronic device, and computer readable storage medium
KR101521136B1 (en) Method of recognizing face and face recognition apparatus
JP2017084006A (en) Image processor and method thereof
Sanin et al. K-tangent spaces on Riemannian manifolds for improved pedestrian detection
KR101437228B1 (en) Obstacle detection device and method using boundary weighting
Essa et al. High order volumetric directional pattern for video-based face recognition
Nguyen et al. A Real-time Pedestrian Detection based on AGMM and HOG for Embedded Surveillance
CN112712101A (en) Method for detecting and re-identifying objects by means of a neural network, neural network and control method
Rajavarshini et al. Comparative analysis of image processing techniques for obstacle avoidance and path deduction
Santoso et al. Learning-based human detection applied to RGB-D images
Boulmerka et al. Background modeling in videos revisited using finite mixtures of generalized Gaussians and spatial information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant