KR102415503B1 - 분류기 학습 방법 및 객체 검출 방법 - Google Patents

분류기 학습 방법 및 객체 검출 방법 Download PDF

Info

Publication number
KR102415503B1
KR102415503B1 KR1020150117861A KR20150117861A KR102415503B1 KR 102415503 B1 KR102415503 B1 KR 102415503B1 KR 1020150117861 A KR1020150117861 A KR 1020150117861A KR 20150117861 A KR20150117861 A KR 20150117861A KR 102415503 B1 KR102415503 B1 KR 102415503B1
Authority
KR
South Korea
Prior art keywords
classifier
data
training
object detection
error
Prior art date
Application number
KR1020150117861A
Other languages
English (en)
Other versions
KR20170022625A (ko
Inventor
허진구
남동경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150117861A priority Critical patent/KR102415503B1/ko
Priority to US15/019,146 priority patent/US11416763B2/en
Publication of KR20170022625A publication Critical patent/KR20170022625A/ko
Application granted granted Critical
Publication of KR102415503B1 publication Critical patent/KR102415503B1/ko

Links

Images

Classifications

    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

에러 데이터를 이용한 분류기 학습 방법 및 객체 검출 방법이 개시된다. 일 측에 따른 분류기 학습 방법은 학습 데이터로부터 에러 데이터를 검출하는 단계와, 상기 에러 데이터에 기초하여 분류기를 학습시키는 단계를 포함한다. 에러 데이터는 상기 학습 데이터로부터 제1 객체의 분류에 실패한 데이터 및 상기 학습 데이터에 포함된 상기 제1 객체를 제2 객체로 분류한 데이터 중 적어도 하나를 포함한다. 일 측에 따른 객체 검출 방법은 에러 데이터를 이용하여 학습된 분류기를 통해 입력 데이터로부터 대상 객체를 검출한다. 에러 데이터를 이용하여 분류기를 학습시킴에 따라 분류기의 학습 시간이 단축될 수 있고 분류기의 성능이 향상될 수 있다.

Description

분류기 학습 방법 및 객체 검출 방법{METHOD FOR TRAINING CLASSIFIER AND DETECTING OBJECT}
아래 실시예들은 분류기 학습 방법 및 학습된 분류기를 이용한 객체 검출 방법에 관한 것이다.
객체 검출 기법은 다양한 데이터에 포함된 특정 객체를 검출하는 기법이다. 객체는 이미지와 음성 등 일정한 패턴에 따라 사람, 얼굴, 눈, 자동차 등 검출 대상이 되는 다양한 데이터를 포함할 수 있다. 예컨대, 영상 기반의 객체 분류기는 영상에 포함된 특정 객체를 자동으로 검출할 수 있다. 객체 분류기는 입력 영상에 포함된 객체의 유형을 분류함으로써 특정 객체를 검출할 수 있다. 이러한 객체 분류기는 다수의 학습 데이터(training data)에 기초하여 학습(training)될 수 있는데, 그 학습 방법에 따라 객체 분류기의 성능 및 비용이 결정된다. 따라서, 저비용으로 고효율의 객체 분류기를 학습하는 방법이 요구된다.
일 측에 따른 분류기 학습 방법은 학습 데이터로부터 에러 데이터를 검출하는 단계; 및 상기 에러 데이터에 기초하여 객체 검출을 위한 분류기를 학습시키는 단계를 포함한다.
상기 에러 데이터는 상기 학습 데이터에 포함된 객체의 분류에 실패함으로써 검출되는 제1 에러 데이터 및 상기 학습 데이터에 포함된 객체를 다른 객체로 잘못 분류함으로써 검출되는 제2 에러 데이터 중 적어도 하나를 포함할 수 있다.
상기 검출하는 단계는 상기 학습 데이터로 학습된 제1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 상기 에러 데이터를 검출하는 단계를 포함할 수 있다.
상기 검출하는 단계는 상기 학습 데이터에 기초하여 제1 분류기를 학습시키는 단계; 상기 제1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 제1 에러 데이터를 검출하는 단계; 상기 제1 에러 데이터에 기초하여 제2 분류기를 학습시키는 단계; 및 상기 제2 분류기를 이용하여 상기 학습 데이터를 분류함으로써 제2 에러 데이터를 검출하는 단계를 포함할 수 있다.
상기 학습시키는 단계는 상기 제2 에러 데이터에 기초하여 상기 분류기를 학습시키는 단계를 포함할 수 있다.
상기 제2 에러 데이터는 상기 제1 분류기에 의하여 객체 분류에 성공하였으나 상기 제2 분류기에 의하여 객체 분류에 실패함으로써 검출되는 데이터, 및 상기 제1 분류기와 상기 제2 분류기 모두에 의하여 객체 분류에 실패함으로써 검출되는 데이터를 포함할 수 있다.
상기 분류기를 학습시키는 단계는 상기 학습된 분류기를 검증하는 단계를 포함할 수 있다.
상기 검증하는 단계는 오수락률(False Acceptance Rate: FAR)이 미리 정해진 임계 값 이하가 되도록 상기 분류기의 파라미터를 조절하는 단계를 포함할 수 있다.
상기 학습 데이터는 미리 정해진 비율을 갖는 양성 데이터(positive data) 및 음성 데이터(negative data)를 포함할 수 있다.
일 측에 따른 객체 검출 방법은 입력 데이터를 수신하는 단계; 및 에러 데이터에 기초하여 학습된 분류기를 이용하여 상기 입력 데이터로부터 대상 객체를 검출하는 단계를 포함한다.
상기 에러 데이터는 학습 데이터를 이용하여 제1 분류기를 학습시키고, 상기 제1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 검출될 수 있다.
상기 에러 데이터는 학습 데이터를 이용하여 제1 분류기를 학습시키고, 상기 제1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 제1 에러 데이터를 검출하며, 상기 제1 에러 데이터를 이용하여 제2 분류기를 학습시키고, 상기 제2 분류기를 이용하여 상기 학습 데이터를 분류함으로써 검출될 수 있다.
상기 객체 검출 방법은 학습 데이터를 이용하여 제1 분류기를 학습시키는 단계; 상기 제1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 상기 에러 데이터를 검출하는 단계; 및 상기 에러 데이터를 이용하여 상기 분류기를 학습시키는 단계를 더 포함할 수 있다.
상기 객체 검출 방법은 학습 데이터를 이용하여 제1 분류기를 학습시키는 단계; 상기 제1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 제1 에러 데이터를 검출하는 단계; 상기 제1 에러 데이터를 이용하여 제2 분류기를 학습시키는 단계; 상기 제2 분류기를 이용하여 상기 학습 데이터를 분류함으로써 상기 에러 데이터를 검출하는 단계; 및 상기 에러 데이터를 이용하여 상기 분류기를 학습시키는 단계를 더 포함할 수 있다.
일 측에 따른 분류기 학습 장치는 학습 데이터를 저장하는 메모리; 및 상기 학습 데이터로부터 에러 데이터를 검출하고, 상기 에러 데이터에 기초하여 객체 검출을 위한 분류기를 학습시키는 학습기를 포함한다.
상기 학습기는 상기 학습 데이터로 학습된 제1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 상기 에러 데이터를 검출할 수 있다.
상기 학습기는 상기 학습 데이터에 기초하여 제1 분류기를 학습시키고, 상기 1 분류기를 이용하여 상기 학습 데이터를 분류함으로써 제1 에러 데이터를 검출하며, 상기 제1 에러 데이터에 기초하여 제2 분류기를 학습시키고, 상기 제2 분류기를 이용하여 상기 학습 데이터를 분류함으로써 제2 에러 데이터를 검출할 수 있다.
상기 학습기는 상기 제2 에러 데이터에 기초하여 상기 분류기를 학습시킬 수 있다.
상기 학습기는 오수락률(False Acceptance Rate: FAR)이 미리 정해진 임계 값 이하가 되도록 상기 분류기의 파라미터를 조절할 수 있다.
상기 학습 데이터는 미리 정해진 비율을 갖는 양성 데이터(positive data) 및 음성 데이터(negative data)를 포함할 수 있다.
도 1은 일 실시예에 따른 분류기 학습 장치를 나타낸 블록도.
도 2는 일 실시예에 따른 분류기의 학습 과정을 설명하는 도면.
도 3은 일 실시예에 따른 학습 데이터의 분류 과정을 설명하는 과정.
도 4는 일 실시예에 따른 부스팅(boosting)을 이용한 학습 과정을 설명하는 도면.
도 5는 일 실시예에 따른 객체 검출 장치를 나타낸 블록도.
도 6은 다른 실시예에 따른 객체 검출 장치를 나타낸 블록도.
도 7은 일 실시예에 따른 분류기 학습 방법을 나타낸 동작 흐름도.
도 8은 일 실시예에 따른 객체 검출 방법을 나타낸 동작 흐름도.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다. 하기에서 설명될 실시예들은 객체 검출에 적용될 수 있다. 예컨대, 입력 데이터에서 사용자의 얼굴을 검출하는데 사용될 수 있다. 실시예들에 따른 얼굴 검출 기법은 자동 초점 조절 등의 카메라 설정 변경, 얼굴 태깅(tagging) 및 얼굴 인식 등 다양한 방식으로 활용될 수 있다. 하기에서 설명될 실시예들에 따르면 객체 검출을 위한 고성능 분류기를 효율적으로 학습시킬 수 있다.
도 1은 일 실시예에 따른 분류기 학습 장치를 나타낸 블록도이다.
도 1을 참조하면, 분류기 학습 장치(100)는 메모리(110) 및 학습기(120)를 포함한다. 메모리(110)는 학습 데이터를 저장한다. 메모리(110)는 학습 데이터를 학습기(120)로 제공할 수 있다. 메모리(110)는 하드 디스크(HDD), 솔리드 스테이트 디스크(SSD), 플래시 메모리 등 비 휘발성 메모리이거나, 디램(DRAM) 등 휘발성 메모리일 수 있다. 학습 데이터는 대상 객체와 관련된 양성 데이터(positive data) 및 대상 객체와 무관한 음성 데이터(negative data)를 포함할 수 있다. 예컨대, 학습 및 검출 대상이 사용자의 얼굴인 경우, 양성 데이터는 다양한 사람의 얼굴 이미지를 포함할 수 있고, 음성 데이터는 사람의 얼굴이 아닌 다른 객체의 이미지를 포함할 수 있다. 아래에서 상세히 설명되겠으나, 학습 데이터는 분류기(130)의 성능 향상을 위해 양성 데이터에 비해 많은 양의 음성 데이터를 포함할 수 있다.
학습기(120)는 하나 이상의 소프트웨어 모듈, 하나 이상의 하드웨어 모듈, 또는 이들의 다양한 조합으로 구현될 수 있다. 일 예로, 학습기(120)는 단일 프로세서, 또는 멀티 프로세서로 구현될 수 있다. 다른 예로, 학습기(120)는 프로세서와 하드웨어 가속기(HWA)의 조합으로 구현될 수 있다. 또 다른 예로, 학습기(120)는 서로 다른 장치에 포함된 복수의 모듈들로 구현될 수도 있다. 이 경우, 복수의 모듈들은 네트워크 등을 통하여 서로 연결될 수 있다.
학습기(120)는 에러 데이터에 기초하여 분류기(classifier)(130)를 학습시킬 수 있다. 분류기(130)는 서포트 벡터 머신(support vector machine, SVM), 뉴럴 네트워크(neural network, NN), 유사-하르 특징(Harr-like feature), 로컬 바이너리 패턴(Local Binary Patterns: LBP), 적응적 부스팅(adaptive boosting), 뉴럴 네트워크(Neural Network, NN), 또는 딥 러닝(deep learning) 등의 다양한 기계 학습 모델(machine learning model)을 포함할 수 있다. 이하, 분류기(130)를 학습시킨다는 것은 분류기(130)의 파라미터를 학습시킨다는 것으로 이해될 수 있다. 또한, 학습된 분류기는 학습된 파라미터가 적용된 분류기로 이해될 수 있다.
학습기(120)는 학습 데이터로부터 에러 데이터를 검출하고, 에러 데이터에 기초하여 분류기(130)를 학습시킬 수 있다. 에러 데이터는 학습 데이터 중에 대상 객체의 검출에 실패한 데이터를 의미한다. 이하, 분류기(130)를 통해 검출하고자 하는 객체를 대상 객체라고 지칭한다.
학습 데이터는 이미지 데이터, 음성 데이터, 또는 이들의 다양한 조합을 포함할 수 있다. 대상 객체는 사용자의 얼굴, 사용자의 눈, 사용자의 음성 및 자동차와 같은 특정한 사물을 포함할 수 있다. 학습기(120)는 에러 데이터에 기초하여 분류기(130)를 학습시킴으로써, 분류기(130)를 학습시키기 위해 소요되는 학습 시간을 단축할 수 있다. 또한, 에러 데이터를 이용할 경우 큰 샘플 사이즈(large sample size)의 학습이 가능해지므로, 학습된 분류기의 성능이 향상될 수 있다.
학습기(120)는 복수의 스테이지를 통해 분류기(130)를 학습시킬 수 있다. 복수의 스테이지에서 검출된 다각적인 에러 데이터를 통해 최종 학습된 분류기의 정확성이 향상될 수 있고, 에러 데이터 수의 조절을 통해 분류기(130)의 학습 시간이 감소될 수 있다.
도 2는 일 실시예에 따른 분류기의 학습 과정을 설명하는 도면이다.
도 2를 참조하면, 1차 학습 단계에서 학습기(120)는 학습 데이터를 이용하여 초기 분류기(130-1)를 학습시킨다. 초기 분류기(130-1)는 초기 파라미터가 적용된 분류기일 수 있다. 초기 파라미터는 초기 분류기(130-1)의 학습 전에 초기 분류기(130-1)에 적용되는 파라미터를 의미한다. 초기 파라미터는 대상 객체의 종류에 따라 정해질 수 있다.
초기 파라미터로 설정된 초기 분류기(130-1)의 파라미터는 학습이 진행됨에 따라 변경될 수 있다. 학습 데이터를 이용하여 초기 분류기(130-1)의 학습이 완료되면, 학습기(120)는 학습된 파라미터를 획득할 수 있다. 예컨대, 학습된 파라미터는 학습 데이터에 기초한 학습이 완료된 이후 초기 분류기(130-1)가 가지는 최종 파라미터일 수 있다.
전술한 것과 같이, 학습 데이터는 양성 데이터 및 음성 데이터를 포함할 수 있다. 양성 데이터와 음성 데이터는 미리 정해진 비율을 가질 수 있다. 학습 데이터에서 음성 데이터는 양성 데이터에 비해 상당히 많은 비중을 차지할 수 있다. 예컨대, 음성 데이터는 양성 데이터에 비해 수천 배 이상일 수 있다. 학습 데이터에서 음성 데이터의 비중이 큰 경우 분류기의 오수락률(False Acceptance Rate: FAR)이 감소하여 분류기의 정밀도가 향상될 수 있다.
검증 단계에서, 학습기(120)는 학습된 분류기(130-2)를 이용하여 학습 데이터를 분류한다. 학습된 분류기(130-2)는 학습된 파라미터가 적용된 분류기일 수 있다. 학습기(120)는 학습된 분류기(130-2)의 분류 결과에 기초하여 학습 데이터 각각을 에러 데이터와 정답 데이터 중 어느 하나로 구분함으로써, 에러 데이터를 검출할 수 있다.
정답 데이터는 학습된 분류기(130-2)에 의하여 대상 객체가 올바르게(correctly) 검출된 경우의 학습 데이터를 의미한다. 에러 데이터는 학습된 분류기(130-2)에 의하여 대상 객체의 검출에 실패한 경우의 학습 데이터를 의미한다. 예컨대, 대상 객체의 검출에 실패한 경우는 학습 데이터에 포함된 객체의 분류에 실패하는 경우, 또는 학습 데이터에 포함된 객체를 다른 객체로 잘못 분류하는 경우를 포함할 수 있다.
학습 데이터 각각은 자신이 포함하고 있는 객체의 유형에 대한 정보를 포함할 수 있다. 학습기(120)는 학습 데이터에 포함된 정보에 기초하여, 학습된 분류기(130-2)의 분류 결과가 정답인지 혹은 오답인지 여부를 판단할 수 있다. 예컨대, 학습기(120)는 특정 학습 데이터의 분류 결과가 정답이라는 판단에 따라 해당 학습 데이터를 정답 데이터로 검출하고, 특정 학습 데이터의 분류 결과가 오답이라는 판단에 따라 해당 학습 데이터를 오답 데이터로 검출할 수 있다.
학습기(120)는 학습된 분류기(130-2)를 검증하는 검증부를 포함할 수 있다. 검증 단계에서, 검증부는 학습된 분류기(130-2)를 검증할 수 있다. 검증부는 FAR을 기준으로 학습된 분류기(130-2)를 검증할 수 있다. 예컨대, 검증부는 학습된 분류기(130-2)가 미리 정해진 임계 값 이하의 FAR을 갖는지 여부를 판단할 수 있다. 만약 학습된 분류기(130-2)가 미리 정해진 임계 값보다 큰 FAR을 가지면, 학습기(120)는 학습 데이터를 이용하여 학습된 분류기(130-2)를 추가적으로 학습시킬 수 있다. 이 경우, 학습된 파라미터는 추가적으로 조절될 수 있다.
검증부는 학습된 분류기가 충분히 작은 FAR을 갖도록 학습된 파라미터를 조절할 수 있다. 예컨대, 학습된 파라미터가 추가적으로 조절되는 경우 학습기(120)는 분류 결과(정답 데이터와 에러 데이터)를 새로 검출함으로써, FAR이 충분히 작은지 여부를 판단할 수 있다. 1차 학습 및 검증 과정에서 낮은 FAR를 만족시킴으로써, 2차 이후의 학습이 용이해 지고 최종 분류기의 성능이 향상될 수 있다.
2차 학습 단계에서, 학습기(120)는 학습 데이터 전체를 이용하는 대신 에러 데이터만을 이용하여 초기 분류기(130-3)를 학습시킨다. 초기 분류기(130-3)는 1차 학습 단계에서 이용되는 초기 분류기(130-1)와 동일한 기계 학습 모델의 분류기일 수도 있고, 상이한 종류의 분류기일 수도 있다. 에러 데이터를 이용하여 초기 분류기(130-3)의 학습이 완료되면, 학습기(120)는 학습된 파라미터를 획득할 수 있다. 예컨대, 학습된 파라미터는 에러 데이터에 기초한 학습이 완료된 이후 초기 분류기(130-3)가 가지는 최종 파라미터일 수 있다.
일 실시예에 따르면, 초기 분류기(130-1)와 초기 분류기(130-3)는 서로 다른 범주의 데이터로 학습될 수 있다. 예컨대, 학습기(120)는 2차 학습 단계에서 에러 데이터 중에 양성 데이터를 중심으로 초기 분류기(130-3)를 학습시킬 수 있다. 이 경우, 초기 분류기(130-1)가 검출하지 못한 에러 데이터에 대한 분류 성능이 향상될 수 있다. 또한, 초기 분류기(130-1)와 초기 분류기(130-3)가 동일한 기계 학습 모델의 분류기인 경우, 서로 다른 특징을 중심으로 초기 분류기(130-1)와 초기 분류기(130-3)를 학습시킴으로써 최종 분류기의 성능이 향상될 수 있다.
도면에 도시하지 않았으나, 학습기(120)는 2차 학습에 의하여 학습된 분류기(이하, '2차 학습된 분류기'라고 함)를 검증할 수 있다. 학습기(120)는 2차 학습된 분류기를 이용하여 학습 데이터를 분류함으로써, 정답 데이터와 에러 데이터를 검출할 수 있다. 학습기(120)는 정답 데이터와 에러 데이터에 기초하여 FAR을 계산함으로써 2차 학습된 분류기를 검증할 수 있다. 학습기(120)는 2차 학습된 분류기의 검증 결과에 기초하여 2차 학습된 분류기를 추가적으로 학습시킬 수 있다.
도 3을 통하여 상세하게 설명하겠으나, 학습된 분류기(130-2)에 의하여 에러 데이터로 구분된 학습 데이터는 2차 학습된 분류기에 의해서도 에러 데이터로 구분될 수 있다. 또는, 학습된 분류기(130-2)에 의하여 정답 데이터로 구분된 학습 데이터가 2차 학습된 분류기에 의해서는 에러 데이터로 구분될 수도 있다.
일 측에 따르면, 학습된 분류기(130-2)에 의하여 객체 분류에 성공하였으나 2차 학습된 분류기에 의하여 객체 분류에 실패한 경우에 해당하는 에러 데이터는 학습된 분류기(130-2)에 의한 정답 데이터의 약 10% 정도가 되도록 학습이 진행될 수 있다.
또한, 학습된 분류기(130-2)와 2차 학습된 분류기 모두에 의하여 객체 분류에 실패한 경우에 해당하는 에러 데이터는 학습된 분류기(130-2)에 의한 에러 데이터의 약 10% 정도가 되도록 학습이 진행될 수 있다. 또한, 2차 학습된 분류기의 에러 데이터는 특징 디멘션(feature dimension)에 비해 상당히 커지도록(large) 학습이 진행될 수 있다.
도면에 도시하지 않았으나, 3차 이상의 학습이 진행될 수 있다. 예컨대, 학습기는 2차 학습된 분류기의 에러 데이터로 초기 분류기를 학습시킴으로써, 제3 파라미터를 획득할 수 있다. 2차 학습된 분류기의 에러 데이터는 학습된 분류기(130-2) 및 2차 학습된 분류기에 의하여 객체 검출에 실패한 경우에 해당하는 학습 데이터를 포함할 수 있다. 따라서, 3차 이상의 학습을 통하여 학습된 분류기는 대상 객체의 검출이 어려운 환경, 예컨대 저조도 환경이나 노출이 고르지 않은 환경 등에서도 강인할 수 있다.
이상에서, 하나의 분류기(130)에 상이한 파라미터가 적용됨으로써 초기 분류기 또는 학습된 분류기가 구성되는 실시예들을 설명하였으나, 복수의 분류기들이 이용될 수도 있다. 이 경우, 학습 단계와 검증 단계가 병렬적으로 수행될 수 있다. 예를 들어, 검증 단계에서 학습된 분류기(130-2)를 이용하여 에러 데이터를 검출하는 동작과 2차 학습 단계에서 초기 분류기(130-3)를 학습시키는 동작이 병렬적으로 수행될 수 있다.
이하, 설명의 편의를 위하여 1차 학습된 분류기를 제1 분류기라고 지칭하고, 2차 학습된 분류기를 제2 분류기라고 지칭하며, 3차 학습된 분류기를 제3 분류기라고 지칭한다. 제1 분류기, 제2 분류기, 및 제3 분류기는 단일 분류기(130)로 구현되어 상이한 파라미터가 적용되는 것일 수도 있고, 복수의 분류기들로 구현되어 서로 병렬적으로 구동되는 것일 수도 있다. 또한, 제1 분류기의 분류 결과는 제1 정답 데이터와 제1 에러 데이터라고 지칭되고, 제2 분류기의 분류 결과는 제2 정답 데이터와 제2 에러 데이터라고 지칭될 수 있다.
도 3은 일 실시예에 따른 학습 데이터의 분류 과정을 설명하는 과정이다.
도 3을 참조하면, 제1 스테이지, 제2 스테이지 및 제3 스테이지에서 학습 데이터가 분류되는 과정이 도시되어 있다. 대상 객체는 사용자의 눈인 것으로 가정한다. 각각의 스테이지에서는 앞서 설명된 제1 분류기, 제2 분류기 및 제3 분류기가 학습 데이터를 분류한다. 앞서 설명된 것처럼, 제1 분류기는 학습 데이터로 학습되고, 제2 분류기는 제1 에러 데이터로 학습되고, 제3 분류기는 제2 에러 데이터로 학습된다.
제1 스테이지에서 제1 분류기는 학습 데이터 중 일부 데이터에서 대상 객체를 검출하고, 일부 데이터에서 대상 객체의 검출에 실패한다. 제1 스테이지에서 제1 분류기가 검출에 실패한 데이터, 즉 제1 에러 데이터는 굵은 선으로 표시되어 있다. 제1 스테이지에서 제1 분류기의 분류 경계(decision boundary)는 단순한 선으로 나타날 수 있다..
일 예로, 제1 스테이지의 동작은 표 1의 알고리즘으로 표현될 수 있다.
Figure 112015081204724-pat00001
여기서, Dtota _training_db는 학습 데이터이고, D1 t는 부스팅을 위한 복수의 서브 스테이지들 중 t번째 서브 스테이지의 학습 데이터이며, ht(x)는 t번째 서브 스테이지를 위한 약한 분류기이고, αt는 ht(x)를 위한 부스팅 파라미터이다.
제2 스테이지에서 제2 분류기는 제1 에러 데이터 중 일부 데이터에서 대상 객체를 검출하고, 일부 데이터에서 대상 객체의 검출에 실패한다. 제2 분류기는 제1 에러 데이터에 의한 학습에 따라 향상된 성능을 갖게 된다. 제2 분류기가 대상 객체의 검출에 실패한 데이터는 점선으로 표시되어 있다. 제2 분류기는 제1 분류기가 검출에 성공한 데이터에서 대상 객체의 검출에 실패할 수 있다. 제2 스테이지에서 제2 분류기의 분류 경계는 제1 분류기의 분류 경계에 비해 복잡한 선으로 나타날 수 있다.
일 예로, 제2 스테이지의 동작은 표 2의 알고리즘으로 표현될 수 있다.
Figure 112015081204724-pat00002
제3 스테이지에서 제3 분류기는 제2 에러 데이터 중 대부분의 데이터에서 대상 객체를 검출한다. 제3 분류기는 제2 에러 데이터에 의한 학습에 따라 향상된 성능을 갖게 된다. 제3 분류기는 제1 분류기가 검출에 성공했으나 제2 분류기가 검출에 실패한 데이터에서 대상 객체를 성공적으로 검출할 수 있다. 제3 스테이지에서 제3 분류기의 분류 경계는 제2 분류기의 분류 경계에 비해 정교한 선으로 나타날 수 있다.
일 예로, 제3 스테이지의 동작은 표 3의 알고리즘으로 표현될 수 있다.
Figure 112015081204724-pat00003
도 4는 일 실시예에 따른 부스팅(boosting)을 이용한 학습 과정을 설명하는 도면이다.
도 4를 참조하면, 각각의 스테이지들에서 분류기들의 학습 과정 및 이에 따른 데이터의 분류 과정이 도시되어 있다. 앞서 설명된 것처럼, 각각의 분류기들은 다양한 기계 학습 기법에 따라 학습될 수 있다. 도 4에는 분류기들이 특징 추출 및 부스팅을 통해 학습되는 실시예가 도시되어 있다. 분류기들은 도 4에 도시된 실시예 이외에도 다양한 기법에 따라 에러 데이터를 학습할 수 있다.
단계(10)에서, 제1 분류기가 학습된다. 학습기는 학습 데이터로부터 특징을 추출할 수 있다. 학습기는 추출된 특징에 기초하여 약 분류기들(weak classifiers)을 부스팅할 수 있다. 학습기는 부스팅 과정에서 약 분류기들의 가중치를 조절할 수 있다. 약 분류기들은 다수의 부스팅 스테이지를 가질 수 있다. 학습기는 일련의 약 분류기들에 기초하여 제1 파라미터를 획득하고, 제1 파라미터를 강인한 분류기(strong classifier)인 제1 분류기에 적용할 수 있다. 학습기는 제1 분류기에 캐스캐이드(cascaded) 구조를 적용할 수 있다.
단계(20)에서, 제1 분류기가 검증된다. 학습기는 제1 분류기를 검증할 수 있다. 앞서 설명된 것처럼, 학습기는 학습 데이터와 제1 분류기의 분류 결과에 기초하여 제1 분류기를 검증할 수 있다.
단계(30)에서, 제1 에러 데이터가 검출된다. 제1 분류기는 학습 데이터를 제1 에러 데이터와 제1 정답 데이터로 분류할 수 있다. 학습기는 제1 분류기를 통해 학습 데이터로부터 제1 에러 데이터를 검출할 수 있다.
단계(40)에서, 제2 분류기가 학습된다. 학습기는 제1 에러 데이터로부터 특징을 추출할 수 있다. 학습기는 단계(10)과 유사하게, 제1 에러 데이터로부터 특징을 추출하고, 약 분류기들을 부스팅할 수 있다. 학습기는 일련의 약 분류기들에 기초하여 제2 파라미터를 획득하고, 제2 파라미터를 강인한 분류기인 제2 분류기에 적용할 수 있다. 학습기는 제2 분류기에 캐스캐이드 구조를 적용할 수 있다.
단계(50)에서, 제2 분류기가 검증된다. 학습기는 제2 분류기를 검증할 수 있다. 학습기는 학습 데이터와 제2 분류기의 분류 결과에 기초하여 제2 분류기를 검증할 수 있다.
단계(60)에서, 제2 에러 데이터가 검출된다. 제2 분류기는 학습 데이터를 제2 에러 데이터와 제2 정답 데이터로 분류할 수 있다. 학습기는 제2 분류기를 통해 학습 데이터로부터 제2 에러 데이터를 검출할 수 있다.
단계(70)에서, 제3 분류기가 학습된다. 학습기는 제2 에러 데이터로부터 특징을 추출할 수 있다. 학습기는 단계(10)과 유사하게, 제2 에러 데이터로부터 특징을 추출하고, 약 분류기들을 부스팅할 수 있다. 학습기는 일련의 약 분류기들에 기초하여 제3 파라미터를 획득하고, 제3 파라미터를 강인한 분류기인 제3 분류기에 적용할 수 있다.
단계(80)에서, 제3 분류기가 검증된다. 학습기는 제3 분류기를 검증할 수 있다. 학습기는 학습 데이터와 제3 분류기의 분류 결과에 기초하여 제3 분류기를 검증할 수 있다.
검증된 제3 분류기는 다양한 어플리케이션에 적용될 수 있다. 예컨대, 최종 분류기는 스마트 폰, 스마트 TV, 데스크 탑, 노트북, 태블릿 PC 등에 탑재되어 객체 검출을 수행할 수 있다. 이러한 어플리케이션에 적용된 객체 검출 장치의 실시예들을 도 5 및 도 6를 참조하여 설명한다.
도 5는 일 실시예에 따른 객체 검출 장치를 나타낸 블록도이다.
도 5를 참조하면, 객체 검출 장치(200)는 센서(210), 통신 모듈(220), 메모리(230) 및 분류기(240)를 포함할 수 있다. 객체 검출 장치(200)는 스마트 폰, 스마트 TV, 데스크 탑, 노트북, 태블릿 PC 등에 탑재될 수 있다. 분류기(240)는 하나 이상의 소프트웨어 모듈 또는 하드웨어 모듈로 구현될 수 있다.
앞서 설명된 것처럼, 분류기(240)는 에러 데이터에 기초하여 학습될 수 있다. 예컨대, 분류기(240)는 학습된 파라미터가 적용될 수 있다. 에러 데이터에 기초하여 학습된 분류기(240)는 센서(210), 통신 모듈(220) 및 메모리(230)로부터 수신된 입력 데이터로부터 대상 객체를 검출할 수 있다. 입력 데이터는 분류기(240)가 학습한 대상 객체에 따라 다양할 수 있다. 예컨대, 입력 데이터는 사용자의 얼굴, 사용자의 눈, 사용자의 음성 및 자동차와 같은 특정한 사물을 포함할 수 있다.
센서(210)는 카메라와 같은 영상 센서 및 마이크와 같은 음성 인식 센서를 포함할 수 있다. 센서(210)는 감지된 이미지 데이터 및 오디오 데이터를 분류기(240)에 입력 데이터로 제공할 수 있다.
통신 모듈(220)은 다양한 통신 기술을 통해 외부 장치와 통신을 수행할 수 있다. 통신 모듈(220)은 외부 장치로부터 수신한 데이터를 분류기(240)에 입력 데이터로 제공할 수 있다.
메모리(230)는 다양한 이미지 데이터 및 오디오 데이터를 저장할 수 있다. 메모리(230)는 저장된 이미지 데이터 및 오디오 데이터를 분류기(240)에 입력 데이터로 제공할 수 있다.
도 6은 다른 실시예에 따른 객체 검출 장치를 나타낸 블록도이다.
도 6을 참조하면, 객체 검출 장치(300)는 센서(310), 통신 모듈(320), 메모리(330), 분류기(340) 및 학습기(350)를 포함할 수 있다. 객체 검출 장치(300)는 스마트 폰, 스마트 TV, 데스크 탑, 노트북, 태블릿 PC 등에 탑재될 수 있다. 분류기(340) 및 학습기(350)는 하나 이상의 소프트웨어 모듈 또는 하드웨어 모듈로 구현될 수 있다.
학습기(350)는 에러 데이터에 기초하여 분류기(340)를 학습시킬 수 있다. 학습기(350)는 학습 데이터로부터 에러 데이터를 검출하고, 에러 데이터에 기초하여 분류기(340)를 학습시킬 수 있다. 그 밖에, 분류기(340)의 학습 과정에 관해서는 앞서 설명된 내용이 적용될 수 있다.
분류기(340)는 센서(310), 통신 모듈(320) 및 메모리(330)로부터 수신된 입력 데이터로부터 대상 객체를 검출할 수 있다.
입력 데이터, 센서(310), 통신 모듈(320) 및 메모리(330)에 관해서는 도 5의 설명이 적용될 수 있다. 추가적으로, 메모리(330)는 학습 데이터를 저장하고, 학습기(350)로 학습 데이터를 제공할 수 있다.
도 7은 일 실시예에 따른 분류기 학습 방법을 나타낸 동작 흐름도이다. 도 7을 참조하면, 단계(510)에서, 학습 데이터로부터 에러 데이터가 검출될 수 있다. 단계(520)에서, 에러 데이터에 기초하여 분류기가 학습될 수 있다. 상기 단계들은 분류기 학습 장치에 의해 수행될 수 있다.
도 8은 일 실시예에 따른 객체 검출 방법을 나타낸 동작 흐름도이다. 도 8을 참조하면, 단계(610)에서, 입력 데이터가 수신될 수 있다. 단계(620)에서, 입력 데이터로부터 대상 객체가 검출될 수 있다. 대상 객체는 에러 데이터에 기초하여 학습된 분류기를 통해 검출될 수 있다. 상기 단계들은 객체 검출 장치에 의해 수행될 수 있다.
도 7 및 도 8에 도시된 각 단계들에는 도 1 내지 도 6을 통하여 기술한 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 학습 데이터에 기초하여 객체 검출을 위한 제1 분류기를 학습시키는 단계;
    상기 제1 분류기를 이용하여 제1 세트의 상기 학습 데이터로부터 제1 에러 데이터를 검출하는 단계;
    상기 제1 세트의 상기 학습 데이터의 일부에 해당하는 상기 제1 에러 데이터에 기초하여 객체 검출을 위한 제2 분류기를 학습시키는 단계;
    상기 제2 분류기를 이용하여 상기 제1 세트의 상기 학습 데이터 중에 상기 제1 에러 데이터를 제외한 나머지 일부에 해당하는 제1 정답 데이터로부터 제2 에러 데이터를 검출하는 단계; 및
    상기 제1 정답 데이터의 일부에 해당하는 상기 제2 에러 데이터에 기초하여 객체 검출을 위한 제3 분류기를 학습시키는 단계
    를 포함하고,
    상기 제1 에러 데이터는
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 실패함으로써 검출되는 데이터이고,
    상기 제2 에러 데이터는
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 성공하고 상기 제2 분류기에 의해 객체 검출에 실패함으로써 검출되는 제1 서브 세트의 데이터, 및
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 실패하고 상기 제2 분류기에 의해 객체 검출에 실패함으로써 검출되는 제2 서브 세트의 데이터
    를 포함하는, 분류기 학습 방법.
  2. 제1항에 있어서,
    상기 제1 에러 데이터는
    상기 학습 데이터에 포함된 객체의 분류에 실패함으로써 검출되는 에러 데이터 및 상기 학습 데이터에 포함된 객체를 다른 객체로 잘못 분류함으로써 검출되는 에러 데이터 중 적어도 하나를 포함하는,
    분류기 학습 방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 제2 에러 데이터는
    상기 제1 분류기에 의하여 객체 분류에 성공하였으나 상기 제2 분류기에 의하여 객체 분류에 실패함으로써 검출되는 데이터, 및 상기 제1 분류기와 상기 제2 분류기 모두에 의하여 객체 분류에 실패함으로써 검출되는 데이터를 포함하는,
    분류기 학습 방법.
  7. 제1항에 있어서,
    상기 분류기를 학습시키는 단계는
    상기 학습된 분류기를 검증하는 단계
    를 포함하는,
    분류기 학습 방법.
  8. 제7항에 있어서,
    상기 검증하는 단계는
    오수락률(False Acceptance Rate: FAR)이 미리 정해진 임계 값 이하가 되도록 상기 분류기의 파라미터를 조절하는 단계
    를 포함하는,
    분류기 학습 방법.
  9. 제1항에 있어서,
    상기 학습 데이터는
    미리 정해진 비율을 갖는 양성 데이터(positive data) 및 음성 데이터(negative data)를 포함하는,
    분류기 학습 방법.
  10. 입력 데이터를 수신하는 단계; 및
    에러 데이터에 기초하여 학습된 분류기를 이용하여 상기 입력 데이터로부터 대상 객체를 검출하는 단계
    를 포함하고,
    상기 분류기는
    학습 데이터에 기초하여 객체 검출을 위한 제1 분류기를 학습시키는 단계,
    상기 제1 분류기를 이용하여 제1 세트의 상기 학습 데이터로부터 제1 에러 데이터를 검출하는 단계,
    제1 세트의 상기 학습 데이터의 일부에 해당하는 상기 제1 에러 데이터에 기초하여 객체 검출을 위한 제2 분류기를 학습시키는 단계,
    상기 제2 분류기를 이용하여 제1 세트의 상기 학습 데이터 중에 상기 제1 에러 데이터를 제외한 나머지 일부에 해당하는 제1 정답 데이터로부터 제2 에러 데이터를 검출하는 단계, 및
    상기 제1 정답 데이터의 일부에 해당하는 상기 제2 에러 데이터에 기초하여 객체 검출을 위한 제3 분류기를 학습시키는 단계
    를 통해 도출된 제3 분류기에 해당하고,
    상기 제1 에러 데이터는
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 실패함으로써 검출되는 데이터이고,
    상기 제2 에러 데이터는
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 성공하고 상기 제2 분류기에 의해 객체 검출에 실패함으로써 검출되는 제1 서브 세트의 데이터, 및
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 실패하고 상기 제2 분류기에 의해 객체 검출에 실패함으로써 검출되는 제2 서브 세트의 데이터
    를 포함하는, 객체 검출 방법.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 학습 데이터를 저장하는 메모리; 및
    상기 학습 데이터로부터 에러 데이터를 검출하고, 상기 에러 데이터에 기초하여 객체 검출을 위한 분류기를 학습시키는 학습기
    를 포함하고,
    상기 학습기는
    상기 학습 데이터에 기초하여 객체 검출을 위한 제1 분류기를 학습시키고,
    상기 제1 분류기를 이용하여 제1 세트의 상기 학습 데이터로부터 제1 에러 데이터를 검출하고,
    상기 제1 세트의 상기 학습 데이터의 일부에 해당하는 상기 제1 에러 데이터에 기초하여 객체 검출을 위한 제2 분류기를 학습시키고,
    상기 제2 분류기를 이용하여 상기 제1 세트의 상기 학습 데이터 중에 상기 제1 에러 데이터를 제외한 나머지 일부에 해당하는 제1 정답 데이터로부터 제2 에러 데이터를 검출하고,
    상기 제1 정답 데이터의 일부에 해당하는 상기 제2 에러 데이터에 기초하여 객체 검출을 위한 제3 분류기를 학습시키고,
    상기 제1 에러 데이터는
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 실패함으로써 검출되는 데이터이고,
    상기 제2 에러 데이터는
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 성공하고 상기 제2 분류기에 의해 객체 검출에 실패함으로써 검출되는 제1 서브 세트의 데이터, 및
    상기 제1 세트의 상기 학습 데이터 중 상기 제1 분류기에 의해 객체 검출에 실패하고 상기 제2 분류기에 의해 객체 검출에 실패함으로써 검출되는 제2 서브 세트의 데이터
    를 포함하는, 분류기 학습 장치.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 제15항에 있어서,
    상기 학습기는
    오수락률(False Acceptance Rate: FAR)이 미리 정해진 임계 값 이하가 되도록 상기 분류기의 파라미터를 조절하는,
    분류기 학습 장치.
  20. 제15항에 있어서,
    상기 학습 데이터는
    미리 정해진 비율을 갖는 양성 데이터(positive data) 및 음성 데이터(negative data)를 포함하는,
    분류기 학습 장치.
KR1020150117861A 2015-08-21 2015-08-21 분류기 학습 방법 및 객체 검출 방법 KR102415503B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150117861A KR102415503B1 (ko) 2015-08-21 2015-08-21 분류기 학습 방법 및 객체 검출 방법
US15/019,146 US11416763B2 (en) 2015-08-21 2016-02-09 Method of training classifier and detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150117861A KR102415503B1 (ko) 2015-08-21 2015-08-21 분류기 학습 방법 및 객체 검출 방법

Publications (2)

Publication Number Publication Date
KR20170022625A KR20170022625A (ko) 2017-03-02
KR102415503B1 true KR102415503B1 (ko) 2022-07-01

Family

ID=58157149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150117861A KR102415503B1 (ko) 2015-08-21 2015-08-21 분류기 학습 방법 및 객체 검출 방법

Country Status (2)

Country Link
US (1) US11416763B2 (ko)
KR (1) KR102415503B1 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170147909A1 (en) * 2015-11-25 2017-05-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
KR102476897B1 (ko) 2016-10-05 2022-12-12 삼성전자주식회사 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치
EP3367261A1 (de) * 2017-02-28 2018-08-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum klassifizieren von information und klassifizierungsprozessor
US10510336B2 (en) * 2017-06-12 2019-12-17 International Business Machines Corporation Method, apparatus, and system for conflict detection and resolution for competing intent classifiers in modular conversation system
US10346724B2 (en) 2017-06-22 2019-07-09 Waymo Llc Rare instance classifiers
KR101970619B1 (ko) 2017-06-28 2019-04-22 한국과학기술연구원 비정상 상황 검출 방법 및 이를 수행하기 위한 시스템
US11037063B2 (en) * 2017-08-18 2021-06-15 Diveplane Corporation Detecting and correcting anomalies in computer-based reasoning systems
US9922286B1 (en) * 2017-08-18 2018-03-20 Diveplane Corporation Detecting and correcting anomalies in computer-based reasoning systems
US11010672B1 (en) 2017-09-01 2021-05-18 Google Llc Evolutionary techniques for computer-based optimization and artificial intelligence systems
US10387572B2 (en) * 2017-09-15 2019-08-20 International Business Machines Corporation Training data update
US10713570B1 (en) 2017-10-04 2020-07-14 Diveplane Corporation Evolutionary programming techniques utilizing context indications
KR102495359B1 (ko) 2017-10-27 2023-02-02 삼성전자주식회사 객체 트래킹 방법 및 장치
US11676069B2 (en) 2018-12-13 2023-06-13 Diveplane Corporation Synthetic data generation using anonymity preservation in computer-based reasoning systems
US11669769B2 (en) 2018-12-13 2023-06-06 Diveplane Corporation Conditioned synthetic data generation in computer-based reasoning systems
US11941542B2 (en) 2017-11-20 2024-03-26 Diveplane Corporation Computer-based reasoning system for operational situation control of controllable systems
US11092962B1 (en) 2017-11-20 2021-08-17 Diveplane Corporation Computer-based reasoning system for operational situation vehicle control
US11640561B2 (en) 2018-12-13 2023-05-02 Diveplane Corporation Dataset quality for synthetic data generation in computer-based reasoning systems
US11625625B2 (en) 2018-12-13 2023-04-11 Diveplane Corporation Synthetic data generation in computer-based reasoning systems
US11727286B2 (en) 2018-12-13 2023-08-15 Diveplane Corporation Identifier contribution allocation in synthetic data generation in computer-based reasoning systems
KR102525159B1 (ko) * 2018-03-19 2023-04-25 삼성전자주식회사 전자 장치, 전자 장치의 이미지 처리 방법 및 컴퓨터 판독 가능 매체
US11454939B2 (en) 2018-04-09 2022-09-27 Diveplane Corporation Entropy-based techniques for creation of well-balanced computer based reasoning systems
US11385633B2 (en) 2018-04-09 2022-07-12 Diveplane Corporation Model reduction and training efficiency in computer-based reasoning and artificial intelligence systems
US11880775B1 (en) 2018-06-05 2024-01-23 Diveplane Corporation Entropy-based techniques for improved automated selection in computer-based reasoning systems
KR102140936B1 (ko) * 2018-08-14 2020-08-04 에스케이텔레콤 주식회사 객체인식장치 및 그 동작 방법
US11494669B2 (en) 2018-10-30 2022-11-08 Diveplane Corporation Clustering, explainability, and automated decisions in computer-based reasoning systems
US10528877B1 (en) 2018-11-13 2020-01-07 Diveplane Corporation Explainable and automated decisions in computer-based reasoning systems
EP3861487A1 (en) 2018-10-30 2021-08-11 Diveplane Corporation Clustering, explainability, and automated decisions in computer-based reasoning systems
KR102608471B1 (ko) 2018-11-06 2023-12-01 삼성전자주식회사 눈 추적 방법 및 장치
US11568324B2 (en) * 2018-12-20 2023-01-31 Samsung Display Co., Ltd. Adversarial training method for noisy labels
US11763176B1 (en) 2019-05-16 2023-09-19 Diveplane Corporation Search and query in computer-based reasoning systems
JP7406885B2 (ja) 2019-08-01 2023-12-28 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US11176417B2 (en) * 2019-10-06 2021-11-16 International Business Machines Corporation Method and system for producing digital image features
KR102260969B1 (ko) * 2019-10-11 2021-06-04 연세대학교 산학협력단 딥러닝 알고리즘을 이용한 건축 정보 모델의 객체 유형 정보 인식 장치 및 방법
KR20210073135A (ko) 2019-12-10 2021-06-18 삼성전자주식회사 눈 복원 기반의 눈 추적 방법 및 장치
US11436450B2 (en) * 2020-03-31 2022-09-06 The Boeing Company Systems and methods for model-based image analysis
KR102564993B1 (ko) * 2021-06-25 2023-08-08 (주)한틀시스템 Ai 적용을 통한 분류 인식률이 향상되고 설명이 가능한 개선된 투표지 분류 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101476799B1 (ko) * 2013-07-10 2014-12-26 숭실대학교산학협력단 깊이 정보를 이용한 객체 검출 시스템 및 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
KR100815242B1 (ko) 2006-06-13 2008-03-19 한국과학기술원 진화 알고리즘을 이용한 얼굴 검출 방법
JP4218711B2 (ja) 2006-08-04 2009-02-04 ソニー株式会社 顔検出装置、撮像装置および顔検出方法
KR100869554B1 (ko) 2007-02-23 2008-11-21 재단법인서울대학교산학협력재단 영역 밀도 표현에 기반한 점진적 패턴 분류 방법
US7983480B2 (en) * 2007-05-17 2011-07-19 Seiko Epson Corporation Two-level scanning for memory saving in image detection systems
US8015132B2 (en) * 2008-05-16 2011-09-06 Samsung Electronics Co., Ltd. System and method for object detection and classification with multiple threshold adaptive boosting
KR101408344B1 (ko) 2009-09-24 2014-06-17 삼성테크윈 주식회사 얼굴 검출 장치
US8648959B2 (en) 2010-11-11 2014-02-11 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
KR101233843B1 (ko) 2011-06-29 2013-02-15 포항공과대학교 산학협력단 부피 특징 벡터와 3차원 하르-유사 필터를 이용한 물체 검출 방법 및 장치
US8195394B1 (en) 2011-07-13 2012-06-05 Google Inc. Object detection and classification for autonomous vehicles
KR101506155B1 (ko) 2013-12-12 2015-03-26 주식회사 슈프리마 생체 인증 장치와 얼굴 검출 방법
KR101912914B1 (ko) * 2014-01-17 2018-10-29 주식회사 만도 전방 카메라를 이용한 속도제한 표지판 인식 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101476799B1 (ko) * 2013-07-10 2014-12-26 숭실대학교산학협력단 깊이 정보를 이용한 객체 검출 시스템 및 방법

Also Published As

Publication number Publication date
KR20170022625A (ko) 2017-03-02
US11416763B2 (en) 2022-08-16
US20170053211A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
KR102415503B1 (ko) 분류기 학습 방법 및 객체 검출 방법
US11295111B2 (en) Method and apparatus for detecting fake fingerprint, and method and apparatus for recognizing fingerprint
KR102486699B1 (ko) 영상 인식 방법, 영상 검증 방법, 장치, 및 영상 인식 및 검증에 대한 학습 방법 및 장치
US10552592B2 (en) Multi-modal fusion method for user authentication and user authentication method
US10346726B2 (en) Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
US20160217198A1 (en) User management method and apparatus
CN106415594B (zh) 用于面部验证的方法和系统
US20160042223A1 (en) Method and apparatus for facial recognition
US8606022B2 (en) Information processing apparatus, method and program
KR102476897B1 (ko) 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치
KR102374747B1 (ko) 객체를 인식하는 장치 및 방법
KR101997479B1 (ko) 사용자 인증을 위한 생체 영역을 검출하는 방법 및 장치
US10540540B2 (en) Method and device to determine landmark from region of interest of image
US9589351B2 (en) System and method for pet face detection
KR102167011B1 (ko) 샘플링 및 적응적으로 변경되는 임계치에 기초하여 뉴럴 네트워크를 학습하는데 이용되는 하드 네거티브 샘플을 추출하는 영상 학습 장치 및 상기 장치가 수행하는 방법
KR102655789B1 (ko) 얼굴 검출 방법 및 장치
CN111382666A (zh) 具有用户验证的设备和方法
CN111382407A (zh) 用户验证方法和设备及说话者验证方法和设备
US10915799B2 (en) Image processing apparatus and image recognition apparatus
US20170154423A1 (en) Method and apparatus for aligning object in image
KR102186767B1 (ko) 학습을 이용한 얼굴 특징점 검출 방법 및 장치
US11393255B2 (en) Liveness determining method and apparatus and method and apparatus for training the liveness determining apparatus
KR102301786B1 (ko) 딥러닝 기반 실시간 온-디바이스 얼굴 인증을 위한 방법 및 장치
Brändle et al. Face recognition with deep learning for mobile applications

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant