KR20170109304A - Method for parallel learning of cascade classifier by object recognition - Google Patents

Method for parallel learning of cascade classifier by object recognition Download PDF

Info

Publication number
KR20170109304A
KR20170109304A KR1020160033240A KR20160033240A KR20170109304A KR 20170109304 A KR20170109304 A KR 20170109304A KR 1020160033240 A KR1020160033240 A KR 1020160033240A KR 20160033240 A KR20160033240 A KR 20160033240A KR 20170109304 A KR20170109304 A KR 20170109304A
Authority
KR
South Korea
Prior art keywords
learning
unit
classifier
negative
classifiers
Prior art date
Application number
KR1020160033240A
Other languages
Korean (ko)
Inventor
이중수
박종열
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160033240A priority Critical patent/KR20170109304A/en
Publication of KR20170109304A publication Critical patent/KR20170109304A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Abstract

The present invention relates to a parallel learning method of a cascade classifier for recognizing an object. According to an embodiment of the present invention, the parallel learning method for recognizing an object which is used to perform object recognition on an image, comprises: a learning preparing step for extracting feature information on a learning image to be input as learning data to a plurality of unit classifiers; a positive learning step of inputting a negative sample to be used with at least one positive sample among the extracted feature information, into the unit classifiers to perform a learning process, and to perform an evaluation so as to determine a result thereof, and then determining priority for the unit classifiers on the basis of information on the evaluation result; and a negative learning step of sequentially inputting at least one negative sample among the extracted feature information into the unit classifiers in accordance with the determined priority to perform a learning process, and to perform an evaluation so as to determine the same as a final unit classifier when a desired result is derived, and when the desired result is not derived, reconstructing the negative sample used in the current turn into a negative sample to be input in the next turn, to input the sample to the next unit classifiers so as to repeat the learning process.

Description

객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법{METHOD FOR PARALLEL LEARNING OF CASCADE CLASSIFIER BY OBJECT RECOGNITION}{METHOD FOR PARALLEL LEARNING OF CASCADE CLASSIFIER BY OBJECT RECOGNITION FOR Cascade Classifier for Object Recognition}

본 발명은 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법에 관한 것으로서, 보다 구체적으로는 객체 인식 처리시에 영상 또는 이미지의 분류를 위해 사용되는 캐스케이드 분류기에서의 학습 방법에 관한 것이다.The present invention relates to a parallel learning method of a cascade classifier for object recognition, and more particularly, to a learning method in a cascade classifier used for classifying an image or an image in object recognition processing.

영상으로부터 객체를 인식하는 기술은 영상 처리나 패턴 인식, 컴퓨터 비전과 신경망 등과 같은 다양한 분야에 걸쳐 활발히 연구되고 있으며, 상업적, 법적으로 많은 응용분야를 가지고 있다.Techniques for recognizing objects from images have been actively studied in various fields such as image processing, pattern recognition, computer vision and neural networks, and have many commercial and legal applications.

또한, 최근 디지털 카메라와 스마트폰 등으로 촬영한 사진 및 영상을 SNS(Social Network Service), 블로그, 커뮤니티 사이트 등에 공유하게 되면서, 매우 많은 양의 디지털 이미지가 인터넷상에서 유통되고 있는 실정이다. 이에 따라 이미지 또는 영상에 대한 분석 기술이 큰 주목을 받고 있으며, 최근 이에 대한 연구가 활발히 진행되고 있다Recently, a lot of digital images have been circulated on the Internet, since photos and images taken by digital cameras and smart phones have been shared with social network services (SNS), blogs, and community sites. As a result, analytical techniques for images or images have attracted a great deal of attention, and recent studies have been actively conducted

이러한 영상 분석 기술은 이미지 내에 포함된 하나 이상의 객체를 분석하여, 각 객체의 종류, 성격, 특징 등을 인식, 분류 및 판단하는 기술이다. 이와 같은 이미지 분석 기술은 사용하는 방식에 따라 다를 수 있으나 대개, 전처리 단계, 특징 추출 단계, 객체 학습 단계, 객체 분류 단계를 통해 이루어진다.This image analysis technique analyzes one or more objects included in an image and recognizes, classifies and judges the type, personality, and characteristics of each object. Such image analysis techniques may vary depending on the method used, but are usually performed through pre-processing, feature extraction, object learning, and object classification.

상술한 이미지 분석 기술 중 캐스케이드(cascade) 분류기는 사람의 얼굴 검출이나 보행자를 검출하는 데 높은 분류 성능을 보여주고 있다. 이러한 캐스케이드 분류기의 구성은 다수의 단위 분류기를 순차적으로 연결하여, 각 분류기에서 도출되는 결과값이 모두 일치할 경우에 분류하고자 하는 객체로 판정하는 방식으로 이루어진다. 즉, 순차적으로 연결된 다수의 단위 분류기 중 어느 하나에서의 결과값이 일치하지 않을 경우에는 분류하고자 하는 해당 객체가 아닌 것으로 판정하게 된다.Among the image analysis techniques described above, the cascade classifier shows a high classification performance in detecting human faces or detecting pedestrians. The configuration of such a cascade classifier consists of sequentially connecting a plurality of unit classifiers and judging them as objects to be classified when the result values derived from the classifiers are all identical. That is, when the resultant values in any one of the sequentially connected plurality of unit classifiers do not match, it is determined that the object is not the object to be classified.

이와 같은 특징을 갖는 캐스케이드 분류기는 학습 과정에서 잘못된 참(false positive, 실제로는 거짓인데 참으로 판정하는 경우)의 경우를 줄이기 위하여 이전 분류기에서 false positive로 판정된 사례들을 다음 분류기의 입력으로 넣도록 학습을 하고 있다. 이 때문에 각 단위 분류기 간 학습 데이터에 종속성이 존재하게 마련이다. 이처럼 단위 분류기 간 학습 데이터에 종속성이 있는 구조로 인해 순차적으로 연결된 다수의 단위 분류기들을 동시에 학습하도록 할 수 없는 문제가 있다. 이러한 이유로 단위 분류기의 개수가 증가할수록 학습 시간 역시 증가하게 되고, 이는 결국 최종 이미지 분석에 소요되는 시간이 증가하게 되는 문제가 야기된다.The cascaded classifier with this feature is designed to reduce the cases of false positive (actually false, but true judgment) in the learning process to include cases judged as false positives in the previous classifier as inputs of the next classifier . Therefore, there is a dependency on the learning data between each unit classifier. There is a problem that it is impossible to simultaneously learn a plurality of unit classifiers sequentially connected due to a structure having a dependency on learning data between unit classifiers. For this reason, as the number of unit classifiers increases, the learning time also increases, which leads to a problem that the time required for final image analysis increases.

아울러, 최근 많이 사용되는 GPU를 활용한 병렬화 처리나 클러스터 시스템에서 다수의 컴퓨터를 사용하여 빠르게 이미지 분석 처리를 수행하고자 할 경우에, 상술한 바와 같이 학습 절차에서 병렬화 처리를 수행할 수 없어 처리 시간의 단축 효과를 구현할 수 없는 단점이 있다.In addition, when parallel processing using a GPU commonly used in recent years or cluster processing requires a large number of computers to perform image analysis processing rapidly, parallel processing can not be performed in the learning procedure as described above, The shortening effect can not be realized.

본 발명은 상기와 같은 필요에 의해 창출된 것으로서, 영상 또는 이미지 분석 방법에 이용되는 캐스케이드 분류기의 학습 과정에서 단위 분류기 간 순차적인 학습 처리 절차를 개선하여, 신속한 학습 처리가 이루어질 수 있도록 하는 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법을 제공하는데 그 목적이 있다.The object of the present invention is to provide an object recognition method capable of improving the sequential learning and processing procedure between unit classifiers in a learning process of a cascade classifier used in an image or image analysis method, The purpose of this paper is to provide a parallel learning method of a cascade classifier.

본 발명의 다른 목적 및 장점들은 하기에 설명될 것이며, 본 발명의 실시예에 의해 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 첨부된 특허 청구 범위에 나타낸 수단 및 조합에 의해 실현될 수 있다.Other objects and advantages of the present invention will be described hereinafter and will be understood by the embodiments of the present invention. Further, objects and advantages of the present invention can be realized by the means and the combination shown in the appended claims.

전술한 목적을 달성하기 위하여, 본 발명의 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법은, 영상 또는 이미지에 대한 객체 인식 처리를 위하여 이용되는 캐스케이드 분류기에서의 학습 처리 방법으로서, 복수의 단위 분류기에 학습 데이터로 입력될 학습 이미지에 대한 특징 정보를 추출하는 학습 준비 단계; 상기 추출된 특징 정보 중 적어도 하나의 포지티브 샘플과 공통으로 이용되는 네거티브 샘플을 복수의 단위 분류기에 입력하여, 학습을 수행하고 평가를 진행하여 결과를 판정한 다음, 상기 평가 결과 정보에 근거하여 상기 복수의 단위 분류기에 대한 우선순위를 결정하는 포지티브 학습 단계; 및 상기 결정된 우선순위에 따라 순차적으로 단위 분류기에 상기 추출된 특징 정보 중 적어도 하나의 네거티브 샘플을 입력하여 학습을 수행하고, 평가를 진행하여 원하는 결과가 도출되면 최종 단위 분류기로 결정하고, 원하는 결과가 도출되지 않을 경우에는 다음 순서의 단위 분류기에 이번에 이용된 네거티브 샘플을 다음에 입력할 네거티브 샘플에 재구성하여 입력하며 학습을 반복하는 네거티브 학습 단계;를 포함하는 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법을 포함한다.In order to achieve the above object, a parallel learning method of a cascade classifier for object recognition of the present invention is a learning processing method in a cascade classifier used for object recognition processing on an image or an image, A learning preparation step of extracting feature information on a learning image to be input as data; A negative sample used in common with at least one positive sample of the extracted feature information is input to a plurality of unit classifiers, learning is performed, the evaluation is performed to determine the result, and then the plurality A positive learning step of determining the priority of the unit classifier of And at least one negative sample of the extracted feature information is sequentially input to the unit classifier according to the determined priority, and the learning is performed. When the desired result is obtained, the final unit classifier is determined. A negative learning step of reconstructing a negative sample to be input next to a negative sample to be input next and a negative learning step of repeating the learning in the next step of the unit classifier, and a method of parallel learning of a cascade classifier for object recognition .

본 발명에 따르면, 본 발명의 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법은, 캐스케이드 분류기의 학습 과정에서 단위 분류기 간의 데이터 종속성이 없는 경우를 먼저 학습하고, 종속적인 부분은 순차적으로 학습하도록 함으로써, 복수의 단위 분류기들 간 일정 부분에 대해 학습의 병렬 처리를 수행하도록 할 수 있어, 학습 과정에 소요되는 시간을 단축할 수 있는 효과를 제공한다.According to the present invention, in the parallel learning method of a cascade classifier for object recognition of the present invention, a case where there is no data dependency between unit classifiers in a learning process of a cascade classifier is first learned, and a dependent part is learned sequentially, It is possible to reduce the time required for the learning process because the parallel processing of the learning can be performed for a certain portion between the unit classifiers.

나아가, 캐스케이드 분류기의 다수 단위 분류기 간 일정 부분 병렬 처리가 가능하게 되어, 클러스터 시스템이나 GPU를 활용한 병렬화 처리 시스템을 활용할 수 있어 학습과정의 처리 시간뿐 아니라 전체적인 영상 인식 및 분석 처리 시간을 줄일 수 있는 효과가 있다.Furthermore, it is possible to perform a partial partial parallel processing between multiple unit classifiers of a cascade classifier, and it is possible to utilize a parallel processing system using a cluster system or a GPU, thereby reducing not only the processing time of the learning process but also the overall image recognition and analysis processing time It is effective.

또한, 분류기를 구성함에 있어서 과적합 등에 의해 의도한 성능이 나오지 않는 경우가 발생할 수 있으므로, 최적이라고 판단되는 하나의 분류기 외에도 여러 개의 분류기를 랜덤하게 구성할 수 있도록 하여, 전체적으로 캐스케이드 분류기의 정확도를 높일 수 있는 효과를 제공한다.In addition, in constructing the classifier, it may happen that the intended performance does not come out due to an over-sum or the like. Therefore, it is possible to randomly configure a plurality of classifiers in addition to one classifier which is determined to be optimum, thereby improving the accuracy of the cascade classifier as a whole Provides a possible effect.

도 1은 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법이 이루어지는 캐스케이드 분류기의 구성을 나타낸 도면이다.
도 2는 본 발명의 다른 실시예에 따른 캐스케이드 분류기의 학습 과정을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법의 순서를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법이 이루어지는 과정을 나타낸 도면이다.
1 is a block diagram of a cascade classifier in which a parallel learning method of a cascade classifier for object recognition is performed according to an embodiment of the present invention.
2 is a diagram illustrating a learning process of a cascade classifier according to another embodiment of the present invention.
3 is a diagram illustrating a procedure of a parallel learning method of a cascade classifier for object recognition according to an embodiment of the present invention.
4 is a diagram illustrating a process of performing a parallel learning method of a cascade classifier for object recognition according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. And is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined by the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that " comprises, " or "comprising," as used herein, means the presence or absence of one or more other components, steps, operations, and / Do not exclude the addition.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가급적 동일한 부호를 부여하고, 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있는 경우에는 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are given to the same or similar components, and in the following description of the present invention, Detailed explanations of the detailed description will be omitted when the gist of the present invention can be obscured.

도 1은 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법이 이루어지는 캐스케이드 분류기의 구성을 나타낸 도면이다.1 is a block diagram of a cascade classifier in which a parallel learning method of a cascade classifier for object recognition is performed according to an embodiment of the present invention.

도 1을 참조하며, 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법이 이루어지는 캐스케이드 분류기의 구성 및 처리 과정을 설명하기로 한다.Referring to FIG. 1, the construction and processing of a cascade classifier in which a parallel learning method of a cascade classifier for object recognition according to an embodiment of the present invention is performed will be described.

도면에서와 같이, 상기 캐스케이드 분류기는 다수의 단위 분류기(101)가 순차적으로 연결된 형태로 구성되며, 각 단위 분류기(101)에서 순차적으로 분류 및 판정 처리가 이루어지고, 상기 각 단위 분류기(101) 모두에서 검출하고자 하는 대상 객체로 판정할 경우에만 최종적으로 해당 객체(103, Object)로 판정하도록 하는 분류기이다.As shown in the drawing, the cascade classifier is configured such that a plurality of unit classifiers 101 are sequentially connected, and classification and determination processing is sequentially performed in each unit classifier 101. In each of the unit classifiers 101 (103, Object) only when it is determined that the target object is the target object to be detected.

이때, 상기 각 단위 분류기(101) 중 어느 하나라도 검출하고자 하는 대상 객체가 아닌 객체(102, Non-object)로 판정할 경우에는, 그때까지의 중간 과정에서 해당 객체가 아닌 것으로 판정하기 때문에, 이후의 단위 분류기들에서 분류 및 판정 처리를 수행할 필요가 없다. 따라서, 전체적으로 빠르게 객체의 분류 결과가 도출될 수 있는 장점이 있다.At this time, when any one of the unit sorters 101 determines that the object 102 is a non-object rather than a target object to be detected, it is determined that the object is not a corresponding object in the intermediate process up to that point. It is not necessary to perform the classification and judgment processing in the unit classifiers of FIG. Therefore, there is an advantage that the classification result of the object can be derived quickly as a whole.

도 2는 본 발명의 다른 실시예에 따른 캐스케이드 분류기의 학습 과정을 나타낸 도면이다.2 is a diagram illustrating a learning process of a cascade classifier according to another embodiment of the present invention.

여기서, 캐스케이드 분류기를 학습하기 위해서는 캐스케이드 분류기에 포함된 다수의 단위 분류기를 순차적으로 학습하는 과정을 진행하게 되는데, 각각의 단위 분류기에 대한 학습 과정을 살펴보기로 한다.Here, in order to learn the cascade classifier, a process of learning a plurality of unit classifiers included in the cascade classifier is sequentially performed. A learning process for each unit classifier will be described.

도 2를 참조하면, 본 발명의 다른 실시예에 따른 캐스케이드 분류기의 학습 과정은, 먼저, 학습에 이용될 학습 이미지 또는 학습 영상 데이터를 입력받아 준비하는 절차와, 해당 데이터에서 이미지 또는 영상을 로드하는 절차와, 로드한 이미지 또는 영상에서 특징(feature or descriptor) 정보를 추출하는 절차를 포함하는 준비 과정(201)을 수행하게 된다. 이때, 추출되는 특징 정보로는, SIFT(Scale Invariant Feature Transform), HOG(Histogram of Oriented Gradient), LBP(Local Binary Pattern), 엣지 히스토그램, haar 등의 영상 인식 전 단계에서 분석에 이용되는 여러 가지 특성 정보가 포함될 수 있다.Referring to FIG. 2, the learning process of the cascade classifier according to another embodiment of the present invention includes a procedure of preparing and receiving a learning image or learning image data to be used for learning, And a preparation process 201 including a process of extracting feature or descriptor information from the loaded image or image. At this time, the feature information to be extracted includes various characteristics used in the analysis before the image recognition such as Scale Invariant Feature Transform (SIFT), Histogram of Oriented Gradient (HOG), Local Binary Pattern (LBP), Edge histogram, Information may be included.

이렇게, 학습 데이터가 준비되면, 이를 이용하여 단위 학습(202)을 수행하는 절차가 진행된다. 상기 단위 학습(202) 단계에서는 추출된 여러 가지의 특징 정보들 중에 하나 또는 다수개를 이용하여 학습을 수행한다. 상기 단위 학습(202)에서 이루어지는 학습은 정해진 입력에 대하여 정해진 출력이 나올 수 있도록 파라미터를 조정하는 과정을 의미하며, 이때의 분류기로는 결정 트리(decision tree), 서포트 벡터 머신(SVM), 신경망(Neural Network) 등을 사용할 수 있다. 상기 학습 과정을 수행한 이후에 분류기는 조정된 파라미터에 따라 유사하다고 판정되는 입력값에 대하여 객체로 판별한다. 상기 단위 학습(202) 과정에서는 특징 정보 중 포지티브 샘플과 네거티브 샘플이 함께 입력된다.When the learning data is prepared in this manner, a procedure for performing the unit learning 202 is performed using the learning data. In the unit learning step 202, learning is performed using one or a plurality of pieces of extracted feature information. Learning performed in the unit learning 202 is a process of adjusting a parameter so that a predetermined output is output to a predetermined input. The classifier includes a decision tree, a support vector machine (SVM), a neural network Neural Network) can be used. After performing the learning process, the classifier determines an input value that is determined to be similar according to the adjusted parameter as an object. In the unit learning process 202, a positive sample and a negative sample are input together.

상기 단위 학습(202) 절차가 마무리되면, 평가(203) 절차가 이루어지는데, 이때에는 상기 단위 학습(202) 절차에서 학습을 수행한 결과인 분류기 파라미터를 사용하여 평가를 진행한다. 상기 평가(203) 단계에서 사용되는 입력 이미지는 학습에 사용되지 않는 것을 사용하는 것이 바람직하다. When the unit learning 202 procedure is completed, an evaluation 203 procedure is performed. At this time, evaluation is performed using a classifier parameter that is a result of learning in the unit learning 202 procedure. Preferably, the input image used in the evaluation step (203) is not used for learning.

상기 평가(203) 단계를 수행하고 나면, 학습된 분류기의 성능이 원하는 값(detection rate, false positive rate)을 만족하게 되면 학습을 중지하고, 지금까지의 단위 분류기를 최종 분류기로 결정하는 절차를 수행한다. 반면에, 학습된 분류기의 성능이 원하는 값을 만족하지 않을 경우에는, 새로운 단위 분류기를 추가하여 상술한 학습 과정을 반복하게 된다.After the evaluation step 203 is performed, if the performance of the learned classifier satisfies a detection rate (false positive rate), the learning is stopped and a procedure of determining the classifier as a final classifier is performed do. On the other hand, when the performance of the learned classifier does not satisfy the desired value, a new classifier is added to repeat the above-described learning process.

여기서, 단위 분류기를 추가하여 학습 과정을 반복하는 경우에는, 지금 사용된 네거티브 샘플을 재구성(204)하는 절차를 수행하게 된다. 이때에는 인식 대상의 객체가 아닌데도 불구하고 해당 객체로 판정된(false positive) 테스트 이미지를 포함하여 최초 사용된 네거티브 샘플(N)과 동일한 크기의 네거티브 데이터 셋(set)을 구성한다. 아울러, 이때 추가되는 단위 분류기는 이전에 사용하지 않은 새로운 종류의 특징 정보를 학습에서의 입력값으로 사용하는 것이 바람직하다.Here, when the unit classifier is added and the learning process is repeated, a procedure of reconstructing (204) the negative samples currently used is performed. At this time, a negative data set having the same size as that of the initially used negative sample (N) is constructed including a false positive test image even though the object is not a recognition target object. In addition, it is preferable that the added unit classifier uses a new type of feature information that has not been used before as an input value in the learning.

이러한 학습 과정은 학습기의 최소 정확도(detection rate)와 최대 잘못된 참 비율(false positive rate)이 만족할 때까지 반복하는데, 최소 정확도의 경우 학습을 반복한다고 올라가는 것이 아니므로, 단위 분류기가 참으로 판정하는 기준값(threshold)을 조정하여 높은 정확도를 보이도록 조정할 수 있다. 아울러, 잘못된 참 비율(false positive rate)은 새로운 단위 분류기에서 걸러낼 수 있으므로, 단위 분류기를 추가할 때마다 성능이 향상된다.This learning process is repeated until the learning rate of the learning device is satisfied and the false positive rate is satisfied. In the case of the minimum accuracy, since the learning is not repeated, the reference value the threshold can be adjusted to achieve high accuracy. In addition, since the false positive rate can be filtered by the new unit classifier, the performance is improved every time the unit classifier is added.

도 3은 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법의 순서를 나타낸 도면이다.3 is a diagram illustrating a procedure of a parallel learning method of a cascade classifier for object recognition according to an embodiment of the present invention.

도 3을 참조하여, 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법을 상세히 설명한다.Referring to FIG. 3, a parallel learning method of a cascade classifier for object recognition according to an embodiment of the present invention will be described in detail.

도면에서와 같이, 본 발명에 따른 캐스케이드 분류기의 병렬 학습 방법은 먼저, 학습 준비 절차를 진행한다. 상기 학습 준비 절차는 상기 도 2에서 상술한 바와 같이, 학습에 이용될 학습 이미지 또는 학습 영상 데이터를 입력받아 준비하는 절차와, 해당 데이터에서 이미지 또는 영상을 로드하는 절차와, 로드한 이미지 또는 영상에서 특징(feature or descriptor) 정보를 추출하는 절차 등으로 이루어진다(S10).As shown in the drawing, the parallel learning method of the cascade classifier according to the present invention first carries out a learning preparation procedure. As described above with reference to FIG. 2, the learning preparation procedure includes a procedure of preparing and receiving a learning image or learning image data to be used for learning, a procedure of loading an image or an image from the data, And a process of extracting features or descriptor information (S10).

이렇게 학습에 이용될 데이터가 준비되면, 캐스케이드 분류기에 포함된 복수의 단위 분류기에 샘플을 입력하는 절차를 진행한다. 상기 복수의 단위 분류기에 입력하는 샘플은, 상기 입력 데이터에서 포지티브 샘플(P)과 공통으로 이용되는 네거티브 샘플(N')을 포함한다. 이때, 입력되는 네거티브 샘플(N')은 공통으로 이용되는 미리 준비된 샘플 데이터로서, 캐스케이드 분류기 학습시 네거티브 샘플 종속성에 구애받지 않으므로, 복수의 단위 분류기에 동시에 입력할 수 있다. 따라서, 복수의 단위 분류기에 동시에 샘플이 입력되므로, 복수의 분류기를 동시에 학습 처리할 수 있는 병렬 처리를 구현할 수 있다(S20).When the data to be used for learning is prepared, a procedure for inputting a sample to a plurality of unit classifiers included in the cascade classifier is performed. The sample input to the plurality of unit sorters includes a negative sample (N ') used in common with the positive sample (P) in the input data. At this time, the input negative sample N 'is previously prepared sample data that is commonly used and can be simultaneously input to a plurality of unit classifiers since the negative sample dependency is not involved in cascade classifier learning. Therefore, since the samples are input to the plurality of unit classifiers at the same time, it is possible to implement parallel processing capable of simultaneously processing a plurality of classifiers (S20).

여기서, 상기 공통으로 사용되는 네거티브 샘플(N')은 기존의 캐스케이드 분류기를 통한 학습시에는 이용되지 않던 개념으로, 학습에서 참과 거짓을 구분하는 기준, 즉 파라미터를 생성하기 위해서는 포지티브 데이터와 네거티브 데이터가 제시되어야 하므로, 포지티브 데이터만 제공해서는 학습이 이루어지지 않기 때문에 미리 준비한 공통의 네거티브 샘플(N')을 이용하고 있다.Here, the commonly used negative sample N 'is a concept that is not used in learning through a conventional cascade classifier. In order to generate a parameter for discriminating between true and false in learning, positive data and negative data Since the learning is not performed by providing only the positive data, a common negative sample N 'prepared in advance is used.

다음으로, 입력된 샘플을 통해 각 단위 분류기들은 단위 학습을 수행하고, 각각의 학습 결과를 평가하는 절차를 진행한다(S22). 아울러, 이 단계에서는 모두 동일한 공통의 네거티브 샘플(N')을 이용하게 되어, 네거티브 샘플 재구성 절차가 없이 포지티브 샘플(P) 위주로 학습이 진행되므로, 포지티브 학습 단계로 부르도록 한다. 상기 입력 데이터에서 포함된 정상적인 네거티브 샘플(N)을 이용한 학습 처리는 추후에 따로 진행되며, 해당 절차는 네거티브 학습 단계(S32)로 부르도록 한다. 상기 네거티브 학습 단계는 후술하기로 한다.Next, the unit classifiers perform unit learning through the input samples, and proceed to a procedure of evaluating each learning result (S22). Further, in this step, all the same common negative samples N 'are used, so that the learning proceeds mainly on the positive sample P without a negative sample reconstruction procedure, so that it is referred to as a positive learning step. The learning process using the normal negative sample N included in the input data is performed separately later, and the procedure is referred to as a negative learning step S32. The negative learning step will be described later.

한편, 상기 포지티브 학습 수행 및 평가 단계에서는 검출률(detection rate)에 초점을 맞춰 학습을 수행하고, 후술할 네거티브 학습 단계(S32)에서는 잘못된 참 비율(false positive rate)을 낮추는 데 초점을 두어 학습을 수행한다.On the other hand, in the positive learning execution and evaluation step, learning is performed while focusing on a detection rate, and in the negative learning step S32 described later, learning is performed with a focus on lowering a false positive rate do.

또한, 상기 포지티브 학습 수행 및 평가 단계(S22)에서는 다수의 단위 분류기 각각에서 학습 수행 후 평가 절차를 진행하는데, 각 단위 분류기별로 학습 수행의 결과로 성능과 속도를 평가하여 결과를 판정하는 절차를 수행한다.In the positive learning execution and evaluation step (S22), each of the plurality of unit classifiers performs a post-learning evaluation procedure. In the positive learning execution and evaluation step (S22), a procedure is performed to evaluate the performance and speed as a result of learning by each unit classifier do.

이렇게, 다수의 단위 분류기에서 평가에 따른 결과를 판정하고 난 후에는, 해당 판정 결과를 근거로 하여, 다수의 단위 분류기들에 대한 우선순위를 선정하는 절차를 진행한다(S24). 상기 우선순위 선정의 근거로는 개별 단위 분류기의 검출률(detection rate), 잘못된 참 비율(false positive rate), 소요 시간 등의 정보를 이용한다.After the results of the evaluation are determined by the plurality of unit classifiers, a procedure for selecting a priority order for a plurality of unit classifiers based on the determination result is performed (S24). As the basis for selecting the priority, information such as detection rate, false positive rate, and time required of the individual unit classifier is used.

이때 결정되는 우선순위는 다수의 단위 분류기 중 캐스케이드 분류기에서 인식 대상 이미지가 입력될 순서이다. 즉, 캐스케이드 분류기에서 순차적으로 연결된 다수의 단위 분류기에 대한 순서 정보이다. 이와 같이, 단위 분류기의 우선순위를 결정할 경우, 하나의 정해진 시퀀스가 생성되므로, 인식 및 분석 처리에 활용될 장치가 많지 않을 경우에 적은 계산으로도 분류기를 생성해 낼 수 있는 장점이 있다.In this case, the priority to be determined is the order in which the recognition target image is input in the cascade classifier among the plurality of unit classifiers. That is, order information for a plurality of unit classifiers sequentially connected in the cascade classifier. In this way, when the priority of the unit classifier is determined, a predetermined sequence is generated. Therefore, when there are not many devices to be used in the recognition and analysis processing, a classifier can be generated even with a small calculation.

그러나, 본 발명에서는 상술한 우선순위 선정 프로세스에 따라서만 단위 분류기의 연결 순서를 결정하지 않고, 다양한 방식으로 단위 분류기의 연결 순서를 정할 수 있음은 물론이다. 다시 말해서, 단위 분류기를 많이 연결할수록 검출률(detection rate)이 하락할 수 있으므로, 원하는 잘못된 참 비율(false positive rate)에 도달한 단위 분류기 가운데 가장 높은 검출률(detection rate)을 기록한 단위 분류기를 선택하거나, 더욱 빠른 시간 내에 분류 처리를 수행한 단위 분류기를 선택하는 방식 등으로 연결 순서를 결정할 수 있다.However, in the present invention, it is needless to say that the connection order of the unit classifiers can be determined in various ways without determining the connection order of the unit classifiers according to the above-described priority selection process. In other words, since the detection rate may decrease as more unit classifiers are connected, the unit sorter that records the highest detection rate among the unit classifiers that have reached the desired false positive rate may be selected, or more And a method of selecting a unit classifier in which classification processing is performed within a short time.

상기와 같이, 다수의 단위 분류기에서 학습 및 평가 절차가 수행되고 나면, 상기 단계 S10에서 준비된 학습 데이터 중 네거티브 샘플(N)을 단위 분류기에 입력하는 절차를 진행한다(S30). 이때에는, 포지티브 샘플(P) 없이 네거티브 샘플(N)만을 입력 값으로 이용하며, 상술한 공통의 네거티브 샘플(N')이 아닌 학습 데이터에서 추출된 특징 정보 중 적어도 하나의 네거티브 샘플(N)이 이용된다.After the learning and evaluation procedures are performed in the plurality of unit classifiers, a negative sample N among the training data prepared in step S10 is input to the unit classifier (S30). At this time, only the negative sample (N) is used as the input value without the positive sample (P), and at least one negative sample (N) of the feature information extracted from the learning data other than the common negative sample .

아울러, 네거티브 샘플(N)을 단위 분류기에 입력할 때에는 상기 단계 S30에서 선정된 우선순위에 따른 단위 분류기 순으로 입력 처리를 수행할 수 있다.In addition, when the negative samples N are input to the unit sorter, the input processing can be performed in the order of the unit sorters according to the priority order selected in step S30.

이렇게, 단위 분류기에 네거티브 샘플(N)이 입력되면 해당 단위 분류기에서는 입력된 네거티브 샘플(N)을 이용하여 학습을 수행하고 평가 절차를 진행한다(S32). 이때, 학습을 수행할 경우에는 네거티브 샘플(N)만을 이용하지만, 평가 절차시에는 검출률(detection rate)과 잘못된 참 비율(false positive rate)을 계산해야 하기 때문에, 포지티브 샘플(P)이 이용될 수 있다.When the negative classifier is input to the unit classifier, the unit classifier performs learning using the input negative sample N and proceeds with the evaluation procedure (S32). At this time, since only the negative sample N is used in performing the learning but the detection rate and the false positive rate must be calculated in the evaluation procedure, the positive sample P can be used have.

또한, 네거티브 샘플(N)만을 이용한 학습은 상술한 바와 같이, 네거티브 학습 수행 및 평가 단계(S32)로 부르도록 하며, 이러한 네거티브 학습시에는 잘못된 참 비율(false positive rate)을 낮추도록 하는 것이 바람직하다. 즉, 이러한 네거티브 학습은 영상에서 객체 인식을 수행할 때 목적으로 하는 대상 객체 이외의 이미지가 입력될 경우가 많으므로, 잘못된 참 비율(false positive rate)을 낮추는 것이 보다 큰 의미가 있기 때문이다.Further, learning using only the negative sample N is referred to as a negative learning performing and evaluating step S32 as described above, and it is desirable to lower the false positive rate in such negative learning . That is, since such negative learning is often performed when an object other than a target object is input when performing object recognition in an image, it is more meaningful to lower a false positive rate.

이와 같이, 상기 단계 S32에서 단위 분류기를 하나씩 연결해 가면서 단위 학습을 진행하고, 평가 절차(S34)를 거친 후에는 평가 결과에 따라 목적으로 하는 잘못된 참 비율(false positive rate)에 도달하지 못했을 경우, 단위 분류기를 추가하여 다시 네거티브 학습을 반복하여 수행하도록 하는 절차가 진행된다.In this manner, unit learning is performed while unit classifiers are connected one by one in step S32. If the target false positive rate is not reached according to the evaluation result after the evaluation procedure (S34) A procedure for repeating the negative learning is performed again by adding a classifier.

이때에는, 학습 및 평가에 이용된 네거티브 샘플(N)을 종속적으로 다시 이용하도록 하는데, 이용된 네거티브 샘플(N)을 재구성하는 처리(S36)를 수행한 다음, 재구성된 네거티브 샘플을 새로 추가된 단위 분류기에 입력하도록 하는 절차를 진행한다.At this time, the negative sample N used for learning and evaluation is used again in a dependent manner. After performing the process of reconstructing the used negative sample N (S36), the reconstructed negative sample is added to the newly added unit Proceed with the procedure to input to the classifier.

여기서, 상기 네거티브 샘플 재구성 절차(S36)는 잘못된 참(false positive)으로 판정된 네거티브 셋들을 다음 단위 분류기에 종속적으로 이용하기 위해, 학습에 이용되지 않은 새로운 네거티브 샘플을 추가하되, 이전 단위 분류기에서 사용했던 네거티브 셋들과 동일한 크기로 네거티브 학습 셋을 다시 구성하는 절차이다.Here, the negative sample reconstruction procedure S36 adds new negative samples that have not been used for learning in order to use negative sets determined to be false positives depending on the next unit classifier, This is the procedure for reconstructing the negative learning set to the same size as the negative set it did.

반면, 상기 단계 S32에서 평가 결과(S34)로 목적으로 하는 결과에 도달했을 경우에는, 학습 및 평가가 이루어진 해당 단위 분류기를 최종 단위 분류기로 결정하고 캐스케이드 학습 절차를 완료하는 절차가 이루어진다(S38).On the other hand, when the target result reaches the evaluation result (S34) in the step S32, the unit classifier in which the learning and evaluation is performed is determined as the final unit classifier, and a procedure for completing the cascade learning procedure is performed (S38).

도 4는 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법이 이루어지는 과정을 나타낸 도면이다.4 is a diagram illustrating a process of performing a parallel learning method of a cascade classifier for object recognition according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법은 크게 포지티브 학습(304, Positive learning) 과정과 네거티브 학습(305, Negative learning) 과정으로 구분할 수 있다. 상기 포지티브 학습(304) 과정은 복수의 단위 분류기에 포지티브 샘플(P)과 공통의 네거티브 샘플(N')을 각각 입력하여 복수의 단위 학습(301)이 이루어지는 과정과, 각각의 단위 학습의 결과를 평가하는 과정(302)이 이루어진다. 이렇게, 복수의 단위 분류기를 통해 학습과 평가가 각각 이루어진 후에는, 평가 정보를 근거로 단위 분류기에 대한 우선순위 결정(303) 과정이 이루어진다.Referring to FIG. 4, a parallel learning method of a cascade classifier for object recognition according to an embodiment of the present invention can be divided into a positive learning process (304) and a negative learning process (305). The positive learning process 304 includes a process in which a plurality of unit learning 301 is performed by inputting a positive sample P and a common negative sample N 'to a plurality of unit classifiers, And an evaluation process 302 is performed. After the learning and evaluation are respectively performed through the plurality of unit classifiers, the priority classifying unit 303 is performed based on the evaluation information.

도면에서와 같이, 포지티브 학습(304) 과정이 이루어진 후에는, 네거티브 학습(305) 과정이 이루어진다. 네거티브 학습(305) 과정은 단위 분류기에 네거티브 샘플(N) 만을 입력으로 한 단위 학습(306)이 이루어지고, 이를 통한 평가(307)가 이루어진다. 네거티브 학습(305) 과정에서는 평가(307) 결과가 정해진 결과값을 만족할 때까지 새로운 단위 분류기를 추가하여 반복적으로 진행된다. 아울러, 반복 학습시에는 이전 학습 과정에서 사용된 네거티브 샘플(N)을 종속적으로 이용하기 위해 네거티브 샘플(N)에 대한 네거티브 샘플 재구성(308) 절차를 수행한다.As shown in the figure, after the positive learning 304 process is performed, a negative learning process 305 is performed. In the negative learning step 305, the unit learning 306 is performed by inputting only the negative samples N to the unit classifier, and evaluation 307 is performed through the unit learning 306. In the negative learning step (305), a new unit classifier is added until the result of the evaluation (307) satisfies the determined result, and iteratively proceeds. Further, in the iterative learning, a negative sample reconstruction (308) procedure is performed on the negative sample (N) to use the negative sample (N) used in the previous learning process.

이렇게 네거티브 샘플이 재구성되면, 해당 네거티브 샘플(N)을 다음 단위 분류기에 입력값으로 하여 네거티브 학습(305)이 반복된다.When the negative sample is reconstructed in this manner, the negative learning 305 is repeated with the corresponding negative sample (N) as an input value to the next unit classifier.

반면, 평가(307) 결과가 정해진 결과값을 만족할 경우에는 이때까지의 단위 분류기를 최종 단위 분류기로 결정하고, 캐스케이드 분류기에 대한 병렬 학습 절차를 완료하게 된다.On the other hand, if the evaluation result (307) satisfies the determined result, the unit classifier up to this time is determined as the final unit classifier, and the parallel learning procedure for the cascade classifier is completed.

이상에서와 같이, 캐스케이드 분류기의 학습시 본 발명에 따른 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법은 포지티브 학습(304) 과정과 네거티브 학습(305) 과정을 구분하여 처리하도록 하고, 포지티브 학습(304) 과정에서 다수의 단위 분류기를 병렬로 처리하도록 함으로써, 학습시에 병렬 처리를 구현할 수 있고, 학습 처리를 보다 신속하고 효율적으로 수행할 수 있게 된다.As described above, the parallel learning method of the cascade classifier for object recognition according to the present invention during the learning of the cascade classifier divides the positive learning 304 and the negative learning 305, A plurality of unit classifiers are processed in parallel in the process, parallel processing can be implemented at the time of learning, and the learning process can be performed more quickly and efficiently.

이상에서 설명한 본 발명의 일 실시예에 따른 체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법은, 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The parallel learning method of the cascade classifier for sifting according to an embodiment of the present invention described above can also be implemented in the form of a recording medium including a computer program stored in a medium executed by a computer or a command executable by a computer . Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍처를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.While the method and system of the present invention have been described with reference to particular embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

이상, 본 발명의 바람직한 실시예를 통하여 본 발명의 구성을 상세히 설명하였으나, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 명세서에 개시된 내용과는 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It is to be understood that the invention may be embodied in other specific forms. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

101 : 단위 분류기 102 : 대상 객체가 아닌 객체
103 : 해당 객체
101: unit classifier 102: object not the target object
103: the object

Claims (1)

영상 또는 이미지에 대한 객체 인식 처리를 위하여 이용되는 캐스케이드 분류기에서의 학습 처리 방법으로서,
복수의 단위 분류기에 학습 데이터로 입력될 학습 이미지에 대한 특징 정보를 추출하는 학습 준비 단계;
상기 추출된 특징 정보 중 적어도 하나의 포지티브 샘플과 공통으로 이용되는 네거티브 샘플을 복수의 단위 분류기에 입력하여, 학습을 수행하고 평가를 진행하여 결과를 판정한 다음, 상기 평가 결과 정보에 근거하여 상기 복수의 단위 분류기에 대한 우선순위를 결정하는 포지티브 학습 단계; 및
상기 결정된 우선순위에 따라 순차적으로 단위 분류기에 상기 추출된 특징 정보 중 적어도 하나의 네거티브 샘플을 입력하여 학습을 수행하고, 평가를 진행하여 원하는 결과가 도출되면 최종 단위 분류기로 결정하고, 원하는 결과가 도출되지 않을 경우에는 다음 순서의 단위 분류기에 이번에 이용된 네거티브 샘플을 다음에 입력할 네거티브 샘플에 재구성하여 입력하며 학습을 반복하는 네거티브 학습 단계;를 포함하는 객체 인식을 위한 캐스케이드 분류기의 병렬 학습 방법.
A learning processing method in a cascade classifier used for object recognition processing on an image or an image,
A learning preparation step of extracting feature information on a learning image to be input as learning data to a plurality of unit classifiers;
A negative sample used in common with at least one positive sample of the extracted feature information is input to a plurality of unit classifiers, learning is performed, the evaluation is performed to determine the result, and then the plurality A positive learning step of determining the priority of the unit classifier of And
At least one negative sample of the extracted feature information is sequentially inputted to the unit classifier according to the determined priority order to perform learning, and when the desired result is obtained by the evaluation, the final unit classifier is determined, And a negative learning step of reconstructing a negative sample to be input next to a negative sample to be input next, and repeating the learning, in a unit sorter of the next step if not.
KR1020160033240A 2016-03-21 2016-03-21 Method for parallel learning of cascade classifier by object recognition KR20170109304A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160033240A KR20170109304A (en) 2016-03-21 2016-03-21 Method for parallel learning of cascade classifier by object recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160033240A KR20170109304A (en) 2016-03-21 2016-03-21 Method for parallel learning of cascade classifier by object recognition

Publications (1)

Publication Number Publication Date
KR20170109304A true KR20170109304A (en) 2017-09-29

Family

ID=60035617

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160033240A KR20170109304A (en) 2016-03-21 2016-03-21 Method for parallel learning of cascade classifier by object recognition

Country Status (1)

Country Link
KR (1) KR20170109304A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101963514B1 (en) * 2017-10-31 2019-03-28 동아대학교 산학협력단 Apparatus and method for classifying object based on hierarchical structure of image data features
KR20190048208A (en) * 2017-10-30 2019-05-09 현대모비스 주식회사 Apparatus for manufacturing object false positive rejector
KR20200011028A (en) * 2018-07-23 2020-01-31 세종대학교산학협력단 Multiple-classifier integrated control system and method thereof
KR20200075704A (en) * 2018-12-13 2020-06-26 수아랩 (쑤저우) 씨오., 엘티디 Anomaly detection
KR20200133555A (en) * 2019-05-20 2020-11-30 넷마블 주식회사 Method for collecting data for machine learning
KR20210068707A (en) * 2019-12-02 2021-06-10 주식회사 수아랩 Method for training neural network

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190048208A (en) * 2017-10-30 2019-05-09 현대모비스 주식회사 Apparatus for manufacturing object false positive rejector
KR101963514B1 (en) * 2017-10-31 2019-03-28 동아대학교 산학협력단 Apparatus and method for classifying object based on hierarchical structure of image data features
KR20200011028A (en) * 2018-07-23 2020-01-31 세종대학교산학협력단 Multiple-classifier integrated control system and method thereof
KR20200075704A (en) * 2018-12-13 2020-06-26 수아랩 (쑤저우) 씨오., 엘티디 Anomaly detection
KR20200133555A (en) * 2019-05-20 2020-11-30 넷마블 주식회사 Method for collecting data for machine learning
KR20210068707A (en) * 2019-12-02 2021-06-10 주식회사 수아랩 Method for training neural network

Similar Documents

Publication Publication Date Title
KR20170109304A (en) Method for parallel learning of cascade classifier by object recognition
US10909455B2 (en) Information processing apparatus using multi-layer neural network and method therefor
Li et al. Background data resampling for outlier-aware classification
CN110362677B (en) Text data category identification method and device, storage medium and computer equipment
WO2016107103A1 (en) Method and device for recognizing main region of image
US9779329B2 (en) Image processing apparatus, image processing method and program
JP5880454B2 (en) Image identification apparatus and program
KR101934325B1 (en) Method and apparatus for classifying objects
EP3203417B1 (en) Method for detecting texts included in an image and apparatus using the same
US9619753B2 (en) Data analysis system and method
KR101802500B1 (en) Learning device for improving image recogntion performance and learning method thereof
KR102286571B1 (en) Method for recognizing plural object in image
JP2020053073A (en) Learning method, learning system, and learning program
CN111104954A (en) Object classification method and device
US20210089823A1 (en) Information processing device, information processing method, and non-transitory computer-readable storage medium
US9805280B2 (en) Image analysis systems and methods
CN111783812A (en) Method and device for identifying forbidden images and computer readable storage medium
KR102195940B1 (en) System and Method for Detecting Deep Learning based Human Object using Adaptive Thresholding Method of Non Maximum Suppression
JP6338781B2 (en) Learning device and learning identification system
JP2016071800A (en) Information processing device, information processing method, and program
KR102238672B1 (en) Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
CN115713669A (en) Image classification method and device based on inter-class relation, storage medium and terminal
KR102580131B1 (en) Cycle generative adversarial network conditional gen erative adversarial network
US20210042550A1 (en) Information processing device, information processing method, and computer-readable recording medium recording information processing program
CN114662568A (en) Data classification method, device, equipment and storage medium