KR102224253B1 - 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법 - Google Patents

심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법 Download PDF

Info

Publication number
KR102224253B1
KR102224253B1 KR1020190043980A KR20190043980A KR102224253B1 KR 102224253 B1 KR102224253 B1 KR 102224253B1 KR 1020190043980 A KR1020190043980 A KR 1020190043980A KR 20190043980 A KR20190043980 A KR 20190043980A KR 102224253 B1 KR102224253 B1 KR 102224253B1
Authority
KR
South Korea
Prior art keywords
teacher
student
network
random forest
data set
Prior art date
Application number
KR1020190043980A
Other languages
English (en)
Other versions
KR20200121206A (ko
Inventor
고병철
허두영
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020190043980A priority Critical patent/KR102224253B1/ko
Publication of KR20200121206A publication Critical patent/KR20200121206A/ko
Application granted granted Critical
Publication of KR102224253B1 publication Critical patent/KR102224253B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크에 관한 것으로서, 보다 구체적으로는 교사-학생 프레임워크로서, 데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시키는 교사 학습 모듈; 데이터 세트 B를 상기 교사 학습 모듈에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 소프트 타겟 데이터 생성 모듈; 상기 소프트 타겟 데이터 생성 모듈에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시키는 학생 학습 모듈; 및 상기 학생 학습 모듈에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 분류 모듈을 포함하는 것을 그 구성상의 특징으로 한다.
또한, 본 발명은 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에 관한 것으로서, 보다 구체적으로는 교사-학생 프레임워크 기반의 분류 방법으로서, (1) 데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시키는 단계; (2) 데이터 세트 B를 상기 단계 (1)에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 단계; (3) 상기 단계 (2)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시키는 단계; 및 (4) 상기 단계 (3)에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 단계를 포함하는 것을 또 다른 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법에 따르면, 심층 네트워크와 랜덤 포레스트를 결합하여 새로운 앙상블 분류기를 개발하고, 교사 모델의 출력인 소프트 타겟 데이터 세트 B*를 입력으로 하여 학생 모델을 학습시킴으로써, 교사 모델과 학생 모델로 구성되는 교사-학생 프레임워크를 통해 개발된 앙상블 분류기를 경량화하면서도 더 유연한 분류 결과를 출력하도록 할 수 있고, 클래스 레이블이 포함되는 데이터 세트 A와 클래스 레이블이 포함되지 않는 데이터 세트 B를 이용해 교사 모델을 학습시킴으로써, 교사 모델의 오버 피팅(overfitting)을 방지할 수 있다.

Description

심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법{TEACHER-STUDENT FRAMEWORK FOR LIGHT WEIGHTED ENSEMBLE CLASSIFIER COMBINED WITH DEEP NETWORK AND RANDOM FOREST AND THE CLASSIFICATION METHOD BASED ON THEREOF}
본 발명은 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법에 관한 것으로서, 보다 구체적으로는 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법에 관한 것이다.
신경망(Neural Network)은 인간이 뇌를 통해 문제를 처리하는 방법과 비슷한 방법으로 문제를 해결하기 위해 컴퓨터에서 채택하고 있는 구조로서, 수학적 모델로서의 뉴런이 상호 연결되어 네트워크를 형성할 때 이를 신경망 또는 인공 신경망(Artificial Neural Network)이라 한다.
신경망은 각 뉴런이 독립적으로 동작하는 처리기의 역할을 하기 때문에 병렬성(Parallelism)이 뛰어나고, 많은 연결선에 정보가 분산되어 있기 때문에 몇몇 뉴런에 문제가 발생하더라도 전체 시스템에 큰 영향을 주지 않으므로 결함 허용(fault tolerance) 능력이 있으며, 주어진 환경에 대한 학습 능력이 있다. 이와 같은 특성 때문에 인공 지능 분야의 문제 해결에 이용되고 있으며, 문자 인식, 음성 인식, 분류, 진단, 예측 등 여러 분야에서 이용되고 있다.
다양한 심층 신경망 중에서, 컨볼루셔널 뉴럴 네트워크(Convolutional Neural Network; CNN)는 정확도가 높아 보행자 검출, 컴퓨터 비전을 기반으로 한 인간의 자세 추정(Pose Orientation Estimation; POE), 음성 인식 등 다양한 분야에 널리 사용되고 있다. CNN은 그 적용 분야에 따라 학습 및 테스트를 위해 많은 수의 데이터 세트를 필요로 한다. 또한, 연산량이 많으므로 종래의 분류기와 비교하여 대규모의 고수준 컴퓨팅 장치를 필요로 하는 한계가 있다. 따라서 POE와 같이, 신속하고 정확한 분류가 필요한 분야에 있어서, 높은 성능은 보장하면서도, 처리 시간 및 메모리양을 줄일 수 있는 방법의 개발이 필요하다.
한편, 기계 학습(Machine Learning)에서의 랜덤 포레스트(Random Forest)는 분류, 회귀 분석 등에 사용되는 앙상블 학습 방법의 일종으로서, 훈련 과정에서 구성한 다수의 결정 트리로부터 부류(분류) 또는 평균 예측치(회귀 분석)를 출력함으로써 동작한다. 랜덤 포레스트는 여러 개의 결정 트리들을 임의적으로 학습하는 방식의 앙상블 방법이다. 랜덤 포레스트 방법은 크게 다수의 결정 트리를 구성하는 학습 단계와, 입력 벡터가 들어왔을 때 분류하거나 예측하는 테스트 단계로 구성되어 있다. 랜덤 포레스트는 검출, 분류, 그리고 회귀 등 다양한 애플리케이션으로 활용되고 있다.
랜덤 포레스트에서 가장 큰 영향을 미치는 매개변수들은 포레스트의 크기(트리의 개수)와 최대 허용 깊이 등이다. 이 중, 포레스트의 크기(트리의 개수)는, 총 포레스트를 몇 개의 트리로 구성할지를 결정하는 매개변수이다. 포레스트의 크기가 작으면, 즉 트리의 개수가 적으면 트리들을 구성하고 테스트하는데 걸리는 시간이 짧은 대신, 일반화 능력이 떨어져 임의의 입력 데이터 포인트에 대해 틀린 결과를 내놓을 확률이 높다. 반면에, 포레스트의 크기가 크면, 즉 트리의 개수가 많으면 높은 성능을 보장하지만, 훈련과 테스트 시간이 길어지고 메모리양이 증가하는 단점이 있다. 따라서, 높은 성능은 보장하면서도, 처리 시간 및 메모리양을 줄일 수 있는 개선된 랜덤 포레스트 방법을 개발할 필요성이 있다.
한편, 본 발명과 관련된 선행기술로서, 등록특허 제10-1901307호(발명의 명칭: 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체), 공개특허 제10-2018-0046122호(발명의 명칭: 랜덤 포레스트 기법을 이용한 산화물 나노물질의 독성 예측 모델 생성 방법 및 장치) 등이 개시된 바 있다.
본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 심층 네트워크와 랜덤 포레스트를 결합하여 새로운 앙상블 분류기를 개발하고, 교사 모델의 출력인 소프트 타겟 데이터 세트 B*를 입력으로 하여 학생 모델을 학습시킴으로써, 교사 모델과 학생 모델로 구성되는 교사-학생 프레임워크를 통해 개발된 앙상블 분류기를 경량화하면서도 더 유연한 분류 결과를 출력하도록 할 수 있고, 클래스 레이블이 포함되는 데이터 세트 A와 클래스 레이블이 포함되지 않는 데이터 세트 B를 이용해 교사 모델을 학습시킴으로써, 교사 모델의 오버 피팅(overfitting)을 방지할 수 있는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법을 제공하는 것을 그 목적으로 한다.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크는,
교사-학생 프레임워크로서,
데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시키는 교사 학습 모듈;
데이터 세트 B를 상기 교사 학습 모듈에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 소프트 타겟 데이터 생성 모듈;
상기 소프트 타겟 데이터 생성 모듈에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시키는 학생 학습 모듈; 및
상기 학생 학습 모듈에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 분류 모듈을 포함하는 것을 그 구성상의 특징으로 한다.
바람직하게는, 상기 데이터 세트 A는,
클래스 레이블이 포함되는 하드 타겟 데이터 세트일 수 있다.
바람직하게는, 상기 데이터 세트 B는,
클래스 레이블이 포함되지 않는 데이터 세트일 수 있다.
바람직하게는, 상기 교사 학습 모듈은,
상기 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시키는 제1 교사 학습부; 및
상기 교사 심층 네트워크의 특징 맵(feature map)을 이용하여 교사 랜덤 포레스트를 학습시키는 제2 교사 학습부를 포함할 수 있다.
바람직하게는, 상기 교사 심층 네트워크는,
각각의 클래스의 확률값인 소프트 타겟 출력을 얻기 위해, 연화된 소프트맥스 함수(softened softmax function)를 적용할 수 있다.
바람직하게는,
웨이블렛 변환을 적용하여 입력 이미지에 대한 전처리를 수행하는 전처리 모듈을 더 포함할 수 있다.
바람직하게는, 상기 학생 학습 모듈은,
상기 소프트 타겟 데이터 생성 모듈에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크를 학습시키는 제1 학생 학습부; 및
상기 소프트 타겟 데이터 생성 모듈에서 생성된 데이터 세트 B*를 이용하여, 학생 랜덤 포레스트를 학습시키는 제2 학생 학습부를 포함할 수 있다.
더욱 바람직하게는, 상기 제1 학생 학습부는,
(3-1-1) 학생 네트워크의 파라미터(WS)를 초기화하는 단계;
(3-1-2) 사전 학습된 네트워크에 상기 데이터 세트 B*를 입력하는 단계;
(3-1-3) 손실 함수(loss function, L(Ws))를 계산하는 단계;
(3-1-4)
Figure 112019038660322-pat00001
를 WS *로 업데이트하는 단계; 및
(3-1-5) 학생 네트워크를 위한 최적 파라미터 WS *를 선택하는 단계를 수행하여, 상기 학생 네트워크를 학습시킬 수 있다.
더더욱 바람직하게는, 상기 단계 (3-1-3)에서,
다음 수학식을 이용해 손실 함수를 계산할 수 있다.
Figure 112019038660322-pat00002
상기 수학식에서, N은 데이터 세트 B*의 샘플 수, C는 클래스 수, PT(xi|cj)와 PS(xi|cj)는 각각 입력 벡터 xi에 대한 교사와 학생의 후방(posterior) 클래스 확률임.
더욱 바람직하게는, 상기 제2 학생 학습부는,
(3-2-1) 교사 랜덤 포레스트의 t번째 트리 구조(T-RFt)를 학생 랜덤 포레스트의 t번째 트리 구조(S-RFt)로 복사하여 이전학습(Transfer Learning)을 하는 단계;
(3-2-2) 입력벡터 v를 갖는 데이터 세트 B*를 S-RFt의 의사결정 트리 중 하나에 입력하는 단계;
(3-2-3) 노드 O에서 스플릿 함수 f(v)를 생성하는 단계;
(3-2-4) 노드 O에서 정보 이득(information gain) ΔE을 계산하는 단계;
(3-2-5) 교차-엔트로피(cross-entropy) Tr(Te, S)t를 계산하는 단계; 및
(3-2-6) 상기 계산된 교차-엔트로피가 부스팅을 멈추는 최소 임계값 미만이면, 현재의 S-RFt를 저장하고, 그렇지 않으면 상기 단계 (3-2-2)부터 재수행하는 단계를 T개의 랜덤 의사결정 트리를 구성할 때까지 수행하여, 상기 학생 랜덤 포레스트를 학습시킬 수 있다.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법은,
교사-학생 프레임워크 기반의 분류 방법으로서,
(1) 데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시키는 단계;
(2) 데이터 세트 B를 상기 단계 (1)에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 단계;
(3) 상기 단계 (2)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시키는 단계; 및
(4) 상기 단계 (3)에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
바람직하게는, 상기 데이터 세트 A는,
클래스 레이블이 포함되는 하드 타겟 데이터 세트일 수 있다.
바람직하게는, 상기 데이터 세트 B는,
클래스 레이블이 포함되지 않는 데이터 세트일 수 있다.
바람직하게는, 상기 단계 (1)은,
(1-1) 상기 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시키는 단계; 및
(1-2) 상기 교사 심층 네트워크의 특징 맵(feature map)을 이용하여 교사 랜덤 포레스트를 학습시키는 단계를 포함할 수 있다.
바람직하게는, 상기 교사 심층 네트워크는,
각각의 클래스의 확률값인 소프트 타겟 출력을 얻기 위해, 연화된 소프트맥스 함수(softened softmax function)를 적용할 수 있다.
바람직하게는,
(0) 웨이블렛 변환을 적용하여 입력 이미지에 대한 전처리를 수행하는 단계를 더 포함할 수 있다.
바람직하게는, 상기 단계 (3)은,
(3-1) 상기 단계 (2)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크를 학습시키는 단계; 및
(3-2) 상기 단계 (2)에서 생성된 데이터 세트 B*를 이용하여, 학생 랜덤 포레스트를 학습시키는 단계를 포함할 수 있다.
더욱 바람직하게는, 상기 단계 (3-1)은,
(3-1-1) 학생 네트워크의 파라미터(WS)를 초기화하는 단계;
(3-1-2) 사전 학습된 네트워크에 상기 데이터 세트 B*를 입력하는 단계;
(3-1-3) 손실 함수(loss function, L(Ws))를 계산하는 단계;
(3-1-4)
Figure 112019038660322-pat00003
를 WS *로 업데이트하는 단계; 및
(3-1-5) 학생 네트워크를 위한 최적 파라미터 WS *를 선택하는 단계를 수행하여, 상기 학생 네트워크를 학습시킬 수 있다.
더더욱 바람직하게는, 상기 단계 (3-1-3)에서,
다음 수학식을 이용해 손실 함수를 계산할 수 있다.
Figure 112019038660322-pat00004
상기 수학식에서, N은 데이터 세트 B*의 샘플 수, C는 클래스 수, PT(xi|cj)와 PS(xi|cj)는 각각 입력 벡터 xi에 대한 교사와 학생의 후방(posterior) 클래스 확률임.
더욱 바람직하게는, 상기 단계 (3-2)는,
(3-2-1) 교사 랜덤 포레스트의 t번째 트리 구조(T-RFt)를 학생 랜덤 포레스트의 t번째 트리 구조(S-RFt)로 복사하여 이전학습(Transfer Learning)을 하는 단계;
(3-2-2) 입력벡터 v를 갖는 데이터 세트 B*를 S-RFt의 의사결정 트리 중 하나에 입력하는 단계;
(3-2-3) 노드 O에서 스플릿 함수 f(v)를 생성하는 단계;
(3-2-4) 노드 O에서 정보 이득(information gain) ΔE을 계산하는 단계;
(3-2-5) 교차-엔트로피(cross-entropy) Tr(Te, S)t를 계산하는 단계; 및
(3-2-6) 상기 계산된 교차-엔트로피가 부스팅을 멈추는 최소 임계값 미만이면, 현재의 S-RFt를 저장하고, 그렇지 않으면 상기 단계 (3-2-2)부터 재수행하는 단계를 T개의 랜덤 의사결정 트리를 구성할 때까지 수행하여, 상기 학생 랜덤 포레스트를 학습시킬 수 있다.
본 발명에서 제안하고 있는 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법에 따르면, 심층 네트워크와 랜덤 포레스트를 결합하여 새로운 앙상블 분류기를 개발하고, 교사 모델의 출력인 소프트 타겟 데이터 세트 B*를 입력으로 하여 학생 모델을 학습시킴으로써, 교사 모델과 학생 모델로 구성되는 교사-학생 프레임워크를 통해 개발된 앙상블 분류기를 경량화하면서도 더 유연한 분류 결과를 출력하도록 할 수 있고, 클래스 레이블이 포함되는 데이터 세트 A와 클래스 레이블이 포함되지 않는 데이터 세트 B를 이용해 교사 모델을 학습시킴으로써, 교사 모델의 오버 피팅(overfitting)을 방지할 수 있다.
도 1은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크의 구성을 도시한 도면.
도 3은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법의 흐름을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S100의 세부적인 흐름을 도시한 도면.
도 5는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S300의 세부적인 흐름을 도시한 도면.
도 6은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S310의 학생 네트워크 학습 절차를 설명한 알고리즘을 도시한 도면.
도 7은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S320의 학생 랜덤 포레스트 학습 절차를 설명한 알고리즘을 도시한 도면.
도 8은 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법에서, 보행자 방향 클래스 분류를 예를 들어 도시한 도면.
도 9는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법을 포함하는 8개의 실험의 보행자 방향 추정 결과를 비교한 도면.
도 10은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크를 이용해 분류된 방향 클래스별 POE 분류 정확도(Acc)를 confusion matrix로 도시한 도면.
도 11은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크에서, 학생 랜덤 포레스트의 트리 수 결정을 위한 실험 결과를 도시한 도면.
도 12는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법을 포함하는 4개의 실험의 정확도, 파라미터의 수 및 연산 수를 비교한 도면.
도 13은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법을 포함하는 5개의 CNN 기반 방법에 대한 실험 결과를 요약한 도면.
도 14는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크를 사용하여 (a) TUD 및 (b) KITTI 데이터 세트의 POE 분류 결과를 도시한 도면.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 연결 되어 있다고 할 때, 이는 직접적으로 연결 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 간접적으로 연결 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 포함 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
딥러닝 네트워크는 심층 모델 생성을 위해 많은 파라미터가 요구된다. 따라서 많은 양의 곱셈을 수행하기 위해 많은 양의 메모리와 시간이 필요하다. 본 발명에서는, 이러한 심층 네트워크 모델의 단점을 해결하기 위해, 교사-학생 프레임워크를 채택하여, 교사 심층 네트워크를 기반으로 동일한 수준의 성능을 갖춘 더 얕은 학생 모델을 구성하였다.
도 1은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법은, 심층 네트워크와 랜덤 포레스트를 결합하여 새로운 앙상블 분류기를 개발하고, 교사 모델의 출력인 소프트 타겟 데이터 세트 B*를 입력으로 하여 학생 모델을 학습시킴으로써, 교사 모델과 학생 모델로 구성되는 교사-학생 프레임워크를 통해 개발된 앙상블 분류기를 경량화하면서도 더 유연한 분류 결과를 출력하도록 할 수 있고, 클래스 레이블이 포함되는 데이터 세트 A와 클래스 레이블이 포함되지 않는 데이터 세트 B를 이용해 교사 모델을 학습시킴으로써, 교사 모델의 오버 피팅(overfitting)을 방지할 수 있다.
도 1에 도시된 바와 같이, 교사 모델은 교사 심층 네트워크와 교사 랜덤 포레스트의 출력을 결합하여 각 클래스에 대한 소프트 타겟(확률 값)을 생성하고, 이러한 소프트 타겟 값을 입력하여 학생 모델을 훈련할 수 있다. 보다 구체적으로, 도 1을 상세하게 설명하면, (a) 하드 타겟으로 레이블 된 데이터 세트 A를 (b) 교사 심층 네트워크 및 (c) 교사 랜덤 포레스트에 입력하고, (d) 레이블이 지정되지 않은 데이터 세트 B를 학습된 2개의 교사 모델에 입력할 수 있다. (e) 두 교사(교사 심층 네트워크 및 교사 랜덤 포레스트)의 소프트 출력을 하나의 소프트 타겟 벡터로 결합하고, (f) 소프트 타겟 데이터 세트 B*를 학생 모델에 입력하여, (g) 학생 모델을 학습시켜, (h) 최종 클래스 확률을 얻을 수 있다. 이와 같이 본 발명의 교사-학생 프레임워크는 네트워크의 크기를 줄일 수 있을 뿐 아니라, 교사 모델의 분류 기능을 모방할 수 있는 압축된 학생 모델을 쉽게 구성할 수 있다.
도 2는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크의 구성을 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크는, 데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시키는 교사 학습 모듈(100), 데이터 세트 B를 교사 학습 모듈(100)에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 소프트 타겟 데이터 생성 모듈(200), 소프트 타겟 데이터 생성 모듈(200)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시키는 학생 학습 모듈(300), 및 학생 학습 모듈(300)에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 분류 모듈(400)을 포함하여 구성될 수 있다.
또한, 도 2에 도시된 바와 같이, 교사 학습 모듈(100)은, 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시키는 제1 교사 학습부(110), 및 교사 심층 네트워크의 특징 맵(feature map)을 이용하여 교사 랜덤 포레스트를 학습시키는 제2 교사 학습부(120)를 포함하여 구성될 수 있고, 학생 학습 모듈(300)은, 소프트 타겟 데이터 생성 모듈(200)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크를 학습시키는 제1 학생 학습부(310), 및 소프트 타겟 데이터 생성 모듈(200)에서 생성된 데이터 세트 B*를 이용하여, 학생 랜덤 포레스트를 학습시키는 제2 학생 학습부(320)를 포함하여 구성될 수 있다.
본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크의 각 구성요소에 대해서는, 이하에서 교사-학생 프레임워크 기반의 분류 방법의 각 단계에서 상세히 설명하도록 한다.
도 3은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법의 흐름을 도시한 도면이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법은, 데이터 세트 A를 이용하여 교사 모델을 학습시키는 단계(S100), 데이터 세트 B를 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 단계(S200), 데이터 세트 B*를 이용하여 학생 모델을 학습시키는 단계(S300) 및 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 단계(S400)를 포함하여 구현될 수 있으며, 웨이블렛 변환을 적용하여 입력 이미지에 대한 전처리를 수행하는 단계(S10)를 더 포함하여 구현될 수 있다.
이하에서는, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법의 각 흐름에 대하여 상세히 설명하도록 한다.
단계 S100에서는, 데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시킬 수 있다. 단계 S100은, 교사 학습 모듈(100)에 의해 처리될 수 있다.
교사 모델은 교사 심층 네트워크와, 많은 양의 학습 데이터를 기반으로 한 높은 수준의 성능을 가진 교사 랜덤 포레스트(Random Forest; RF)를 사용하여 구성될 수 있다. 여기에서, 데이터 세트 A는 클래스 레이블이 포함되는 하드 타겟 데이터 세트일 수 있다. 즉, 단계 S100에서, 교사 모델은 0 또는 1로 레이블 된 데이터 세트 A를 사용하여 학습될 수 있다.
교사 심층 네트워크는, 각각의 클래스의 확률값인 소프트 타겟 출력을 얻기 위해, 연화된 소프트맥스 함수(softened softmax function)를 적용할 수 있다. 즉, 교사 심층 네트워크 T는, 일반 CNN 모델의 소프트맥스(softmax) 함수와는 상이하게, 소프트 타겟(출력 확률(output probability))을 얻기 위해, 다음 수학식 1과 같은 연화된 소프트맥스 함수(softened softmax function)를 교사 프리-소프트맥스 활성화 벡터(the vector of the teacher pre-softmax activations) aT에 적용할 수 있다. 교사 심층 네트워크의 기본 아이디어는, 학생 네트워크가 실제 레이블에 의해 제공되는 정보뿐만 아니라, 교사 심층 네트워크에 의해 학습된 더 작은 구조를 포착할 수 있게 하는 것이다.
Figure 112019038660322-pat00005
여기서, aT는 표본의 진정한 레이블에 대한 하나의 하드 타겟 표현에 매우 가깝지만, 교사의 소프트 출력(softened output, PT)은 온도(τ>1)가 증가함에 따라 더 부드럽게 분포할 수 있다.
이 방법은 교사 심층 네트워크의 출력에서 나오는 신호를 부드럽게 하고, 학생 모델을 학습하는 동안 학생 네트워크에 더 많은 정보를 제공할 수 있다. 그러나 학생 네트워크의 성능은 온도에 민감하기 때문에, 이 값은 모든 학습 데이터에 대해 경험적으로 결정되어야 하며, 최적의 온도를 예측하려면 상당한 노력이 요구된다.
본 발명의 단계 S100에서는, 온도를 결정하고 교사 모델의 소프트 출력을 얻는데 필요한 노력을 줄이기 위해, 도 1에 도시된 바와 같이, 교사 심층 네트워크의 소프트 출력과 교사 랜덤 포레스트를 결합하여 새로운 소프트 출력을 선택하였다. 의사 결정 트리 앙상블 분류기인 랜덤 포레스트는 기존의 분류기에 비해 높은 학습 속도로 매우 많은 양의 데이터를 처리하는 것으로 알려져 있다. 또한, 랜덤 포레스트는 본질적으로 특정 클래스에 대해 더 부드러운 분류 결과의 분포를 제공한다.
도 4는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S100의 세부적인 흐름을 도시한 도면이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법의 단계 S100은, 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시키는 단계(S110) 및 교사 심층 네트워크의 특징 맵을 이용하여 교사 랜덤 포레스트를 학습시키는 단계(S120)를 포함하여 구현될 수 있다.
단계 S110에서는, 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시킬 수 있다. 단계 S110은, 제1 교사 학습부(110)에 의해 처리될 수 있다. 보다 구체적으로, 단계 S110에서는, 먼저 학습 데이터 세트 A를 사용하여 교사 심층 네트워크를 학습시키는데, 이때 데이터 세트 A는 클래스 레이블이 포함되는 하드 타겟 데이터 세트일 수 있다. 데이터 세트 A={(xi, yi)|i=1, 2, …, N}는 M 차원 입력 벡터 xi=(xi1, xi2, …, xiM) 및 xi의 전문가가 표시한 스칼라 클래스 레이블 yi={g1, g2, …, gc}로 구성될 수 있다.
교사 심층 네트워크는 ResNet-101 모델(He, K.; Zhang, X.; Ren, S.; Sun, J. Deep residual learning for image recognition, In Proceedings of IEEE Conference of Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV USA, 26 June 1 July 2016; pp. 770-778.)을 기반으로 클래스 레이블이 지정된(하드 타겟) 학습 데이터로 생성될 수 있다. 교사 심층 네트워크의 구조는 101개의 매개변수 계층(parameter layers), 하나의 평균 풀링 계층(average pooling layer), 및 하나의 완전 연결 계층(fully connected layer)로 구성될 수 있다. ResNet은 각 33 필터 쌍에 하나 이상의 레이어를 건너뛰는 바로가기 연결(shortcut connection)을 추가하지만, 기본 아키텍처는 일반 CNN과 동일할 수 있다. 또한, ResNet은 모든 바로가기와 제로 패딩(zero-padding)에 identity mapping을 사용하여 차원 수를 늘릴 수 있다. 짧은 연결의 출력은 쌓인 레이어의 출력에 추가될 수 있다.
학습 데이터 세트 A가 주어지면, ImageNet에서 사전 교육된 ResNet-101 모델을 더 작은 데이터 세트 A로 미세 조정하여, 새로운 태스크를 위한 모든 네트워크 가중치를 업데이트할 수 있다. 교사 심층 네트워크를 학습한 후, 수학식 1은 출력 단위(클래스)에 소프트 출력을 제공할 수 있다. 즉, 미리 정해진 개수로 분류된 클래스에 출력 확률이 제공될 수 있다.
단계 S120에서는, 교사 심층 네트워크의 특징 맵(feature map)을 이용하여 교사 랜덤 포레스트를 학습시킬 수 있다. 단계 S120은, 제2 교사 학습부(120)에 의해 처리될 수 있다. 즉, 단계 S120에서, 두 번째 분류기로서 교사 랜덤 포레스트의 개별 의사 결정 트리는 하드 클래스 레이블 yi를 갖는 입력벡터 xi에 대한 최종 특징 벡터를 사용하여 학습될 수 있다. 의사 결정 트리의 학습은 정보 이득(information gain)을 사용하여 부분집합의 무작위 표본 추출 및 분리 함수 선택에 기반을 둔다. 샘플 x의 최종 클래스 분포는 다음 수학식 2와 같이, 모든 트리 T의 각 클래스 확률 분포 pt(ci|x)의 앙상블(산술평균)을 사용하여 생성될 수 있다.
Figure 112019038660322-pat00006
단계 S200에서는, 데이터 세트 B를 단계 S100에서 학습된 교사 모델에 입력하고, 출력된 소프트 출력을 이용하여 소프트 타겟 데이터 세트 B*를 생성할 수 있다. 단계 S200은, 소프트 타겟 데이터 생성 모듈(200)에 의해 처리될 수 있다. 보다 구체적으로, 단계 S200에서는, 도 1의 (e)에서와 같이, 데이터 세트 B를 단계 S100에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 교사 심층 네트워크의 출력 및 교사 랜덤 포레스트의 출력을 하나의 소프트 타겟 벡터로 결합하여, 각각의 클래스의 확률값인 소프트 타겟 데이터 세트 B*를 생성할 수 있다. 이때, 단계 S200에서, 데이터 세트 B는 클래스 레이블이 포함되지 않는 데이터 세트일 수 있다.
보다 구체적으로, 교사 모델의 학습이 완료된 다음, 훨씬 더 크고 레이블이 없는 학습 데이터 세트 B가 교사 모델에 적용되고, 하드 타겟과 반대되는 소프트 타겟(클래스 확률)으로 구성된 새로운 데이터 세트 B*가 구성될 수 있다.
교사 모델에 하나의 데이터 세트 A만을 적용하여 소프트 타겟을 생성하는 알고리즘과는 달리, 본 발명의 접근법은 교사 모델의 오버 피팅(overfitting)을 방지하기 위해 추가 학습 데이터 세트 B를 사용할 수 있다. 단계 S200에서 생성된 새로운 소프트 타겟 데이터 세트 B*는, 다른 클래스들 사이의 관계를 유지함으로써, 원래 하드 타겟 데이터보다 더 많은 정보를 포착할 수 있다. 또한, 하드 타겟 데이터 세트를 사용하는 것보다 더 유연한(flexible) 분류 결과를 얻을 수 있다.
데이터 세트 B에 포함된 모든 M개의 샘플 x가 학습된 후, 클래스 확률 pi *(소프트 타겟)로 표현된 새로운 데이터 세트 B*가 B*={(xi, pi *)|i=1, 2, …, M}와 같이 생성될 수 있다. 인식 성능의 차이는 랜덤 포레스트에서 사용된 의사 결정 트리의 수에 따라 발생할 수 있다.
한편, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법은, 단계 S10을 더 포함하여 구현될 수 있다. 즉, 단계 S10에서는, 전처리 모듈(500)이 웨이블렛 변환을 적용하여 입력 이미지에 대한 전처리를 수행할 수 있다. 특히, 단계 S10은, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법을 이미지에 적용하여 분류를 할 때 추가적으로 처리될 수 있다. 보다 구체적으로는, 단계 S10에서는 하이 패스(high-pass) 필터된 2개의 서브이미지 및 로우 패스(low-pass) 필터된 하나의 서브이미지를 생성하고, 단계 S100에서는 단계 S10에서 생성된 3개의 서브이미지를 이용하여 교사 모델을 학습시킬 수 있다.
구체적으로는, 연화된 소프트맥스 함수(soften softmax function) 외에도, 웨이블렛 변환의 세가지 수작업 필터 응답을 모델에 제공할 수 있다. 즉, 2개의 하이 패스(high-pass) 필터된 서브이미지(sub-images)(LH 및 HL) 및 하나의 로우 패스(low-pass) 필터된 서브이미지(LL)를 사용하여, 도 1의 (a)에 도시된 바와 같은 회색 이미지와 함께 Daubechies D4 웨이블렛을 사용하여 적절한 수작업 특성을 제공하면, 특정 분류 문제에 대한 결과가 향상될 수 있다. 또한, 웨이블렛 변환은 양호한 공간 주파수 지역 특성을 가지며, 이미지의 공간 정보 및 기울기 정보를 보존할 수 있기 때문에, 다양한 밝기 조건에서 분류 성능을 향상시키는데 도움이 될 수 있다.
단계 S300에서는, 단계 S200에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시킬 수 있다. 단계 S300은, 학생 학습 모듈(300)에 의해 처리될 수 있다.
교사 모델을 학습시킨 후, 교사 모델에서 생성된 소프트 타겟 데이터 세트 B*를 사용하여, 경량화된 학생 모델을 구성할 수 있다. 학생 모델은 교사 모델에서처럼 학생 네트워크 1개와 학생 랜덤 포레스트 1개로 구성될 수 있다.
도 5는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S300의 세부적인 흐름을 도시한 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법의 단계 S300은, 데이터 세트 B*를 이용하여 학생 네트워크를 학습시키는 단계(S310) 및 데이터 세트 B*를 이용하여 학생 랜덤 포레스트를 학습시키는 단계(S320)를 포함하여 구현될 수 있다.
단계 S310에서는, 단계 S200에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크를 학습시킬 수 있다. 단계 S310은, 제1 학생 학습부(310)에 의해 처리될 수 있다.
학생 네트워크는 DarkNet 레퍼런스 모델(Darknet reference model. Available online: https://pjreddie.com/darknet/imagenet/#reference (accessed on 27 December 2018).)을 수정하여 생성할 수 있다. 이는 DarkNet 레퍼런스 모델의 계산 속도는, 파라미터의 개수가 1/5 및 1/10일 때 하나의 CPU에서 기존의 ResNet-101보다 16배 빠르고 AlexNet보다 2배 빠르기 때문이다. 따라서 교사 심층 네트워크를 압축하는 대신, 학생 네트워크로 얕은 DarkNet 레퍼런스 모델을 사용하고, 교사 모델에서 생성한 소프트 타겟 데이터 세트를 사용하여 학생 네트워크를 다시 학습시킬 수 있다.
학생 네트워크의 구조는 7개의 맥스 풀링 레이어(max pooling layer), 각 컨볼루션 레이어(convolution layer) 다음에 하나의 평균 풀링 레이어를 포함하는 총 8개의 컨볼루션 레이어로 구성될 수 있다. 전면의 7개의 컨볼루션 레이어는 3×3 크기의 컨볼루션 필터와 2×2 크기의 필터가 있는 맥스 풀링 레이어가 있으며, 마지막 컨볼루션 레이어는 1×1 크기의 컨볼루션 필터가 있고, 완전 연결 레이어(fully connected layer) 대신 평균 풀링 레이어가 있어서, 오버 피팅 문제를 방지하고 완전 연결 레이어의 학습 가능한 파라미터의 수를 줄일 수 있다. 또한, 각 컨볼루션 레이어에 배치 정규화(batch normalisation)가 적용되며, leaky ReLU(LReLU)는 dying ReLU 문제 해결을 위해 활성화 함수로 사용될 수 있다. LReLU 함수 f(x)는 다음 수학식 3과 같이 함수가 0인 대신 x<0일 때 작은 음수값을 갖는다.
Figure 112019038660322-pat00007
학생 네트워크를 학습시키기 위해, ImageNet에서 사전 훈련된 컨볼루션 가중치를 사용하고, 소프트 타겟 데이터 세트 B*를 사용하여 미세 조정을 수행할 수 있다. 교차-엔트로피 기준(cross-entropy criterion)은 다음 수학식 4와 같이 하드 타겟 벡터를 소프트 타겟 벡터로 대체함으로써, 프레임 단위 최소화에 기반할 수 있다.
Figure 112019038660322-pat00008
여기서, N은 데이터 세트 B*의 샘플 수이고 C는 클래스 수이다. 또한, PT(xi|cj)와 PS(xi|cj)는 각각 입력 벡터 xi에 대한 교사와 학생의 후방(posterior) 클래스 확률이다.
도 6은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S310의 학생 네트워크 학습 절차를 설명한 알고리즘을 도시한 도면이다. 단계 S310에서는, 도 6에 도시된 바와 같은 알고리즘으로, 제1 학생 학습부(310)가 학생 네트워크를 먼저 학습시킬 수 있다.
보다 구체적으로는, 단계 S310에서는, (3-1-1) 학생 네트워크의 파라미터(WS)를 초기화하는 단계, (3-1-2) 사전 학습된 네트워크에 데이터 세트 B*를 입력하는 단계, (3-1-3) 손실 함수(loss function, L(Ws))를 계산하는 단계, (3-1-4)
Figure 112019038660322-pat00009
를 WS *로 업데이트하는 단계, 및 (3-1-5) 학생 네트워크를 위한 최적 파라미터 WS *를 선택하는 단계를 수행하여, 학생 네트워크를 학습시킬 수 있다.
단계 S320에서는, 단계 S200에서 생성된 데이터 세트 B*를 이용하여, 학생 랜덤 포레스트를 학습시킬 수 있다. 단계 S320은, 제2 학생 학습부(320)에 의해 처리될 수 있다.
학생 네트워크와 마찬가지로, 학생 랜덤 포레스트의 초기 의사 결정 트리는 트리 수, 트리 깊이 및 개별 트리의 각 노드에 대한 스플릿 임계값을 갖는 스플릿 함수 등 교사 랜덤 포레스트와 동일한 구조를 사용할 수 있다.
학생 랜덤 포레스트의 의사 결정 트리의 학습은, 입력 벡터 v와 클래스 확률 pi *를 입력으로 한다. 입력 벡터는 마지막 특징 맵(last feature maps)(4×4×8)으로부터 생성된 128 차원을 가지고, 클래스 확률은 교사 모델의 출력으로부터 추정될 수 있다. 소프트 타겟 데이터 세트 B*의 클래스 확률을 갖는 출력 벡터로 구성된 학습 데이터로부터, 학생 랜덤 포레스트의 의사 결정 트리는 샘플로부터 클래스 확률을 갖는 p개의 변수를 무작위로 선택할 수 있다.
B'O가 노드 O에서 샘플을 나타낸다고 하자. 사전에 훈련되고 임의로 생성된 스플릿 함수(split function) f(vp)는 랜덤 서브 세트(subset) BO'를 노드 O에서 좌측(B'l) 및 우측(B'r) 서브 세트로 반복적으로 분할할 수 있다. 최상의 스플릿 함수를 선택하기 위해, 노드 O의 엔트로피 E(O)는 확률 분포 Pj *를 갖는 p 변수만을 사용하여 추정될 수 있다. 본 발명에서, 노드 O의 엔트로피 E(B'O)는 다음 수학식 5와 같이 정의될 수 있다.
Figure 112019038660322-pat00010
동일한 방법을 사용하여, 노드 O의 좌측 및 우측 서브 세트는 B'l 및 B'r로 분할되고, 엔트로피 E(B'l) 및 E(B'r)이 계산될 수 있다. 3개의 엔트로피로부터, 노드 O의 정보 이득 ΔE는 다음 수학식 6으로부터 계산될 수 있다.
Figure 112019038660322-pat00011
이 과정은 후보 스플릿 함수의 수를 적용하는 동안 반복될 수 있으며, 최대 ΔE를 갖는 함수를 노드 O에 대한 최상의 스플릿 함수 f(vp)로 결정할 수 있다.
초기 의사 결정 트리 Trt가 확장된 후에, C 클래스들의 확률 분포가 리프 노드(leaf node)에 저장될 수 있다. 그 다음에, 수학식 6에서 교사 랜덤 포레스트에 의해 기술된(transcribed) 데이터 세트 B*의 샘플 i의 j번째 클래스 분포를 나타내는 Pij *(Te)와, 구성된 의사 결정 트리 t에 기반을 둔 샘플 i의 j번째 클래스 분포를 나타내는 Pij *(St)로, 교차-엔트로피(cross-entropy)를 추정할 수 있다. 최종 교차-엔트로피의 일반적인 형태는 다음 수학식 7과 같다.
Figure 112019038660322-pat00012
부스티드(boosted) 랜덤 포레스트의 높은 성능에 힘입어, Tr(Te, S)t가 최소 기준 이하가 될 때까지 t번째 약한 의사 결정 트리를 업데이트하기 위해 부스팅을 반복할 수 있다. T개의 랜덤 의사 결정 트리가 완성되면, 학생 랜덤 포레스트는 최종적으로 클래스 당 확률 분포로 구성된 T 트리가 될 수 있다.
도 7은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법에서, 단계 S320의 학생 랜덤 포레스트 학습 절차를 설명한 알고리즘을 도시한 도면이다. 단계 S320에서는, 도 7에 도시된 바와 같은 알고리즘으로, 제2 학생 학습부(320)가 학생 랜덤 포레스트를 학습시킬 수 있다.
보다 구체적으로는, 단계 S320에서는, (3-2-1) 교사 랜덤 포레스트의 t번째 트리 구조(T-RFt)를 학생 랜덤 포레스트의 t번째 트리 구조(S-RFt)로 복사하여 이전학습(Transfer Learning)을 하는 단계, (3-2-2) 입력벡터 v를 갖는 데이터 세트 B*를 S-RFt의 의사결정 트리 중 하나에 입력하는 단계, (3-2-3) 노드 O에서 스플릿 함수 f(v)를 생성하는 단계, (3-2-4) 노드 O에서 정보 이득(information gain) ΔE을 계산하는 단계, (3-2-5) 교차-엔트로피(cross-entropy) Tr(Te, S)t를 계산하는 단계, 및 (3-2-6) 계산된 교차-엔트로피가 부스팅을 멈추는 최소 임계값 θ 미만이면, 현재의 S-RFt를 저장하고, 그렇지 않으면 단계 (3-2-2)부터 재수행하는 단계를 T개의 랜덤 의사결정 트리를 구성할 때까지 수행하여, 학생 랜덤 포레스트를 학습시킬 수 있다.
단계 S400에서는, 단계 S300에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행할 수 있다. 단계 S400은, 분류 모듈(400)에 의해 처리될 수 있다. 보다 구체적으로, 단계 S400에서는, 단계 S300에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 출력값을 결합하여 최종 확률을 생성하고, 이를 통해 최종 확률이 가장 높은 클래스로 분류할 수 있다. 즉, 본 발명에서는, 학습된 학생 모델에 입력을 하고, 학생 네트워크의 출력값과 학생 랜덤 포레스트의 출력값을 결합하여 최종 확률을 생성함으로써, 보다 정확하게 분류를 할 수 있다.
실험 결과
본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법의 효율성을 입증하기 위해, ADAS (Advanced Driver Assistant System)에서 충돌 회피를 위한 보행자의 자세 방향 추정에 적용하여 본 발명의 성능을 평가하고, 최근 연구에서 제시된 다른 접근법을 사용하여 비교 실험을 수행하였다. ADAS에서 차량은 보행자를 탐지하고 보행자의 포즈 방향 추정(Pose Orientation Estimation; POE)를 기반으로 미리 보행자의 의도를 예측할 수 있다. 따라서 보행자가 차량을 알아차리지 않고 도로를 밟고 있을 때, 운전자에게 경고할 수 있으므로, 충돌 가능성이 크게 줄어들 수 있다. 이때, 움직이는 차량에 의해 캡쳐된 단일 이미지에서의 POE를 목적으로 하므로, 스테레오 카메라 또는 RGBD 센서를 사용하는 3D POE는 고려하지 않는다.
벤치 마크 데이터베이스를 사용하여 본 발명의 성능을 평가하고, 최근 연구에서 제시된 다른 접근법을 사용하여 비교 실험을 수행하였다.
본 실험에서는, 먼저 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법이 다양한 보행자 자세의 방향 추정에 효과적임을 증명하기 위해, POE의 성능을 검증하였다. 이 실험은 Microsoft Windows 10을 실행하는 24GB RAM의 Intel Core i7 프로세서를 사용하여 수행되었다. 또한, 교사 랜덤 포레스트 및 학생 랜덤 포레스트를 포함한 모든 RF 접근 방식은 CPU를 기반으로 실행되었으며 교사 심층 네트워크는 하나의 Titan Xp GPU를 사용하여 실행되었다.
교사 심층 네트워크의 학습을 위해, 배치 크기, 운동량, 학습률(learning rate) 및 가중치 감퇴(weight decay)는, 각각 32, 0.9, 0.001 및 0.0005로 설정하였다. 랜덤 포레스트의 경우, 성능 및 트리를 저장하는 데 필요한 메모리 측면에서 중요한 파라미터는 트리의 깊이 및 그 개수이다. 본 실험에서는, 최대 트리 깊이를 20, 교사 랜덤 포레스트의 트리 개수를 300으로 설정하였다. 학생 랜덤 포레스트의 트리 개수를 결정하기 위해, 나무의 개수를 250, 200, 150, 100, 70 및 50으로 순차적으로 줄였으며, 실험 결과에 기반하여 추후 설명할 바와 같이, 더 정확하고 빠른 계산을 위해 70으로 설정하였다.
학생 네트워크와 학생 랜덤 포레스트는 도 6 및 도 7에 도시된 바와 같은 알고리즘 1 및 알고리즘 2를 기반으로 한 소프트 타겟 학습 데이터 세트 B*를 사용하여 재학습되었다. 보행자 감지와 관련된 많은 데이터 세트의 사용이 가능하지만, 상대적으로 보행자 방향 추정을 한 연구는 거의 없는 실정이다. 따라서 본 발명에서는, 테두리 상자와 이산 방향 주석이 있는 5,228개의 보행자 이미지로 구성된 가장 인기 있는 TUD 멀티 뷰 보행자 데이터 세트를 이용해 POE 실험을 수행하였다. 이 데이터 세트에는 학습을 위한 전신 보행자 이미지 4,732개, 유효성 검사 248개, 테스트 248개가 포함되어 있다. TUD 데이터 세트의 이미지는 실제 거리의 상황에서 촬영되었으며, 모든 이미지에는 다양한 포즈와 옷이 포함되어 있어서 데이터 세트를 훨씬 까다롭게 만들었다. 작은 데이터 세트로 훈련된 모델은 검증 및 테스트 세트의 데이터를 일반화하지 않아 오버 피팅되는 결과를 초래한다는 것은 일반적인 사실이다. 오버 피팅을 줄이기 위해, 본 발명에서는 이미지 이동, 확대 및 축소, -15도에서 +15도 사이에서 임의의 각도로 회전, 왼쪽-오른쪽 뒤집기 및 자르기와 같은 데이터 확대를 적용하여 데이터 세트의 크기를 증가시켰다. 모든 학습 이미지에는 교사 모델에 제공된 원본 이미지와 복제 이미지가 포함된다. 앞서 언급한 데이터 증가에 의해, 데이터 세트 A에 4,732개의 이미지를, 데이터 세트 B에 4,732개의 이미지를 할당하였다.
도 8은 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법에서, 보행자 방향 클래스 분류를 예를 들어 도시한 도면이다. 보행자 방향 추정에 있어서, 모든 방향이 예측될 때 클래스 수는 증가할 수 있다. 따라서 대부분의 기존 연구에서는 도 8에 도시된 바와 같이 방향을 N개의 클러스터로 나누어 인식하는 방법을 사용하였다. 예를 들어, TUD 데이터 세트는 테두리 상자의 뒤, 앞, 왼쪽, 오른쪽, 왼쪽 뒤, 오른쪽 뒤, 왼쪽 앞 및 오른쪽 앞과 같은 방향 주석이 있는 보행자 이미지 5,228개로 구성된다. TUD 데이터 세트의 경우, 방향 클래스가 45도로 나뉜다.
8개의 클래스의 방향 추정의 유효성을 검증하기 위해, TUD 데이터 세트의 정밀도(precision), 회수율(recall) 및 오탐율(False positive rate, FPR)을 측정하였다. 이 값은 일반적으로 물체 인식 성능을 평가하는데 사용된다. 또한, 정확도(accuracy; Acc)는 포즈와 혼동 행렬(confusion matrices)을 평가하여 클래스 간의 성능을 비교하는데 사용된다. 정확도는 조사된 전체 사례수에 대한 탐지 성공 비율이다.
TUD 데이터 세트에서 성능평가
본 발명을 이용한 POE 분류의 효과를 검증하기 위해, 다섯 개의 최첨단 방법과 성능을 비교하였다. 각 실험은 다음과 같다. (1) 매우 무작위화된 트리 분류기의 배열을 사용하여 POE를 분류하는 MoAWG, (2) 랜덤 포레스트 분류기와 결합된 부분 최소 제곱 기반 모델을 사용하는 PLS-RF, (3) 신체 자세 방향을 인식하기 위해 희박한 표현 기법(sparse representation technique)을 사용하는 MACF, (4) 16개의 가중 CNN 레이어 및 저해상도 이미지를 갖는 CNN을 사용하는 VGG-16, (5) deep residual nets에 기반을 둔 ResNet-101, (6) 수작업 필터 없는 제안된 교사 모델, (7) 제안된 교사 모델(proposed T-Model), (8) 학생 네트워크 및 학생 랜덤 포레스트를 포함하는 제안된 학생 모델(proposed S-Model). 총 8가지 방법 중 (4) 내지 (8)의 방법은 CNN을 기반으로 한다.
도 9는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법을 포함하는 8개의 실험의 보행자 방향 추정 결과를 비교한 도면이다. 도 9는 평균 정밀도(average precision; AP), 평균 회수율(average recall; AR), 및 평균 FPR (AFPR)의 관점에서 8가지 접근법의 결과를 비교한 것이다. 도 9에 도시된 바와 같이, 모든 실험에서 CNN 기반 방법((4) 내지 (8)의 방법)이 종래의 수작업 및 분류기 기반 방법보다 우수한 분류 성능을 가진다는 것을 확인할 수 있다. MoAWG가 기존의 세 가지 접근 방식(MoAWG, PLS-RF, MACF) 중 최고 성능을 달성하였으나, 심층 네트워크 기반 접근 방법 중 가장 낮은 성능을 보인 VGG-16보다 0.2%, 3.2% 및 0.6%의 낮은 성능을 보였다. VGG-16과 ResNet-101은 기존의 접근법보다는 나은 성능을 보였으나, 기본적인 CNN 모델을 사용하기 때문에, 그 성능이 본 발명보다 낮다는 것을 확인할 수 있다. 제안된 3가지 방법 중에서, T-Model 방법은 교사 심층 네트워크와 교사 랜덤 포레스트를 동시에 사용하기 때문에, 적용된 세 가지 평가 항목에서 다른 방법에 비해 최고의 성능을 보였다.
수작업 필터를 사용하여 전처리하는 단계 S10이 없는 제안된 T-Model(Proposed T-Model without handcraft filters)의 경우 원래의 T-Model과 비교하여 세 가지 평가 항목 모두에서 성능이 떨어졌다. 결과에 기초하여, 웨이블렛 변환은 양호한 공간 주파수 위치 특성을 가지며, 이미지의 공간 정보 및 경도 정보를 보존할 수 있음을 알 수 있다.
제안된 S-Model의 평가 결과는 T-Model과 비교할 때, AP와 AR 측면에서 7.3%와 5.3%의 약간 낮은 성능을 보였다. 그러나 모델의 크기 축소 비율에 비하여 성능 저하가 적기 때문에, 제안된 방법이 성능을 유지하면서 메모리 및 속도 요구 사항을 효과적으로 향상시킴을 알 수 있다. 제안된 S-Model은, 다른 CNN 기반의 방법과 비교할 때, AP 및 AR은 상대적으로 높고 AFPR은 낮다. 이는 제안된 방법이 복잡한 배경 또는 흐릿한 보행자 외곽선에 대해 강건하다는 것을 나타낸다.
도 10은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크를 이용해 분류된 방향 클래스별 POE 분류 정확도(Acc)를 confusion matrix로 도시한 도면이다. 도 10에 도시된 바와 같이, ‘Back’과 ‘Lback’을 제외하고 대부분의 방향은 비슷한 분류 성능을 보였다. 다른 방향과 비교할 때 이 두 방향의 정확도가 낮은 주된 이유는 웨이블렛 변환이 CNN의 이전 단계에서 적용되더라도 두 방향이 비슷한 모양을 가졌기 때문이다. 반면에, ‘Lfront’와 ‘Rback’은 외모의 차이로 인해 가장 우수한 분류 성능을 보였다.
학생 RF에 대한 의사 결정 트리의 최적 수 결정
학생 랜덤 포레스트의 경우 의사 결정 트리의 수는 처리 시간 및 메모리 절약을 위한 파라미터 수를 줄이는 데 중요한 요소이다. 학생 랜덤 포레스트의 최적 트리 수를 결정하기 위해 TUD 데이터 세트에서 정밀도(Precision), 회수율(recall) 및 정확도(accuracy) 성능을 비교하면서, 트리 수를 200, 150, 100, 70 및 50으로 순차적으로 줄여서 실험을 수행하였다.
도 11은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크에서, 학생 랜덤 포레스트의 트리 수 결정을 위한 실험 결과를 도시한 도면이다. 도 11에 도시된 바와 같이, 트리의 수가 증가함에 따라 정밀도, 회수율 및 정확도가 증가하지만, 파라미터의 수가 상대적으로 증가하고 속도와 압축률이 감소하게 된다. 이러한 결과를 바탕으로, 70개의 트리가 다른 트리 수와 비슷하거나 약간 더 높은 성능을 나타내므로, 학생 랜덤 포레스트의 최적 트리 수라고 볼 수 있다. 따라서 본 발명에서는, 정확도를 높이고 파라미터의 수를 줄이기 위해 학생 랜덤 포레스트의 트리 수를 70으로 설정하였다.
모델 압축 평가
모델 압축의 목표는 교사 모델과 비슷한 성능으로 매개변수 및 연산이 적은 최적의 학생 모델을 생성하는 것이다. 따라서, 제안된 학생 모델을 인기 있는 모델 압축 방법인 MobileNet과 TUD 데이터 세트를 사용하여 파라미터의 개수 및 연산의 관점에서 비교하였다. 비교 모델은 사전 훈련된 파라미터를 기반으로 한 TUD 학습 데이터를 사용하여 미세 조정되었다. MobileNets는 파라미터의 개수와 연산을 줄이기 위해 적용되는 separable depth-wise convolutions을 기반으로 한다. 본 실험에서는, 하나의 Titan-X GPU를 사용하여 세 가지 비교 방법을 실행하였다.
도 12는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법을 포함하는 4개의 실험의 정확도, 파라미터의 수 및 연산 수를 비교한 도면이다. 도 12에 도시된 바와 같이, 제안된 학생 모델은 교사 모델에 비해 파라미터의 수를 약 5배, 연산 수를 약 19.6배 줄일 수 있다. 즉, 학생 모델의 POE 분류 정확도는 교사 모델의 POE 분류 정확도보다 다소 낮지만, 요구되는 연산 및 파라미터의 수가 매우 적다는 것을 확인할 수 있다. 또한, 학생 모델은 MobileNet보다 POE 정확도가 17.9% 우수하며, 5배 적은 수의 연산을 사용한다. 그러나 학생 네트워크는 일반적인 컨볼루션 방법을 사용하는데, 이 방법은 연산 수를 19.6배 늘린다. 비교 결과에서 알 수 있듯이, 제안된 모델 압축 방법은 기존의 압축 방법에 비해 POE 분류 정확도 및 연산 횟수 면에서 우수한 성능을 보임을 확인할 수 있다.
KITTI 데이터 세트에 대한 성능 평가
본 발명에서 제안된 사용된 알고리즘이 다른 데이터 세트에 효과적으로 적용될 수 있는지 여부를 검증하기 위해, 본 발명의 알고리즘을 KITTI 데이터 세트에도 적용하고 결과를 비교하였다.
두 번째 데이터 세트로 사용한 KITTI 데이터 세트는, 스테레오 이미징, 옵티컬 플로(optical flow), 시각적 주행 측정(visual odometry), 3D 객체 탐지(3D object detection) 및 3D 추적(3D tracking)을 포함하는 실제 세계 컴퓨터 비전 벤치마크이다. 이용 가능한 9가지 카테고리 중에서, 보행자 카테고리에 대한 실험을 수행하였다. KITTI 데이터 세트의 보행자 카테고리를 5,415개의 이미지로 구성된 학습 데이터 세트와 2,065개의 이미지로 구성된 유효성 검사 세트로 나누었다. 또한, 학습 데이터 세트에만 데이터 증가를 적용하여 데이터 세트의 크기를 늘리고 4,732개의 이미지의 전체 학습 데이터 세트를 사용했다. 데이터 세트의 난이도는 크기, 폐색(occlusions) 및 절단 수준(truncation level)에 따라 “쉬움(easy)”, “보통(moderate)”, “어려움(hard)”으로 정의하였다. 중요하지 않은 영역의 탐지 또는 최소 크기보다 작은 탐지는 오탐지(false positive)로 간주하지 않는다. KITTI 데이터 세트에 대해 학생 모델을 학습하기 위해, 학습 데이터는 교사 모델에 적용되었고, 교사 모델의 출력인 소프트 타겟 데이터가 학생 네트워크 및 학생 랜덤 포레스트에 적용되었다. 모델이 학습되는 동안, 8개의 각도에서 보행자의 방향을 정규화하고, 수학식 8을 사용하여 연속된 방향 값을 추정하였다.
8개의 클래스의 방향 추정의 유효성을 검증하기 위해, KITTI 데이터 세트의 경우, KITTI 데이터 세트의 보행자 데이터가 TUD와 다른 방향으로 계속 표시되어 있기 때문에, 평균 방향 유사성(Average Orientation Similarity; AOS)을 사용하였다.
성능 평가를 위해 다음과 같은 최첨단 방법들과의 정확성을 비교하였다. (1) 모델 방법의 변형 가능한 부분을 확장하여 다른 관점을 다루는 DPM-VOC+VP, (2) CNN을 사용하여 단일 단안 영상(single monocular image)으로부터 3D 객체를 검출하는 Mono3D, (3) 하위 카테고리 인식 컨볼루션 신경망 기반의 SubCNN, (4) 고도로 최적화된 CNN 기반 탐지 프레임워크의 최상단에서 관점 추론을 사용한 FRCNN, (5) 제안된 학생 모델.
도 13은 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 기반의 분류 방법을 포함하는 5개의 CNN 기반 방법에 대한 실험 결과를 요약한 도면이다. 도 13에 도시된 바와 같이, KITTI 데이터 세트를 이용한 실험에서, DPM-VOC+VP와 FRCNN의 두가지 방법은, 보행자의 외곽이 흐릿하여 입력 이미지가 작을 때 다른 세가지 방법모다 낮은 AOS 비율을 보였다. 그러나 SubCNN 방법은 작은 크기의 보행자 검출하는 데에 이미지 피라미드를 사용하기 때문에, 다른 방법들보다 우수한 AOS 성능을 나타냈다. SubCNN은 KITTI 데이터 세트에 대해 상대적으로 우수한 AOS 비율을 나타냈으나, 본 발명에서 제안된 학생 모델보다 네트워크 구조가 더 깊고 넓기 때문에, 지역 제안 및 객체 검출을 위한 추가적인 네트워크가 필요하다는 단점이 있다. 그러나 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크는, 교사-학생 구조를 적용하여 AOS 속도를 향상시키고, 두 개의 압축된 분류기(학생 네트워크 및 학생 랜덤 포레스트)가 다른 것의 단점을 보완하여, KITTI 데이터 세트의 쉬움, 보통 및 어려움 데이터에 대하여 우수한 성능을 나타냈다.
도 14는 본 발명의 일실시예에 따른 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크를 사용하여 (a) TUD 및 (b) KITTI 데이터 세트의 POE 분류 결과를 도시한 도면이다. 도 14에 도시된 바와 같이, 본 발명에서 제안된 학생 모델은, 보행자의 몸이 다른 보행자에 의해 왜곡되거나 부분적으로 가려졌을 때, 심지어 이미지가 흐릿하더라도 올바르게 보행자의 방향을 예측할 수 있다.
이와 같이, 본 발명에서는 교사 모델은 교사 심층 네트워크의 출력과 교사 랜덤 포레스트의 출력을 결합하여 각 클래스의 확률값을 생성하고, 이와 같은 소프트 타겟 값을 입력하여 학생 모델을 학습시킬 수 있다. 두가지 다른 분류 모델을 결합함으로써, 모델 크기를 줄일 수 있을 뿐 아니라, 교사 모델의 분류 기능을 모방하는 학생 모델을 구성할 수 있다. 또한, 기존의 CNN 기반 분류 접근법과 달리, 본 발명은 교사 심층 네트워크와 교사 랜덤 포레스트의 출력을 결합하여 새로운 소프트 출력을 선택하고, 교사 모델을 기반으로 동등한 성능의 학생 모델을 구성할 수 있다.
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
100: 교사 학습 모듈
110: 제1 교사 학습부
120: 제2 교사 학습부
200: 소프트 타겟 데이터 생성 모듈
300: 학생 학습 모듈
310: 제1 학생 학습부
320: 제2 학생 학습부
400: 분류 모듈
500: 전처리 모듈
S10: 웨이블렛 변환을 적용하여 입력 이미지에 대한 전처리를 수행하는 단계
S100: 데이터 세트 A를 이용하여 교사 모델을 학습시키는 단계
S110: 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시키는 단계
S120: 교사 심층 네트워크의 특징 맵을 이용하여 교사 랜덤 포레스트를 학습시키는 단계
S200: 데이터 세트 B를 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 단계
S300: 데이터 세트 B*를 이용하여 학생 모델을 학습시키는 단계
S310: 데이터 세트 B*를 이용하여 학생 네트워크를 학습시키는 단계
S320: 데이터 세트 B*를 이용하여 학생 랜덤 포레스트를 학습시키는 단계
S400: 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 단계

Claims (20)

  1. 교사-학생 프레임워크 시스템으로서,
    데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시키는 교사 학습 모듈(100);
    데이터 세트 B를 상기 교사 학습 모듈(100)에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 소프트 타겟 데이터 생성 모듈(200);
    상기 소프트 타겟 데이터 생성 모듈(200)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시키는 학생 학습 모듈(300); 및
    상기 학생 학습 모듈(300)에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 분류 모듈(400)을 포함하며,
    상기 학생 학습 모듈(300)은,
    상기 소프트 타겟 데이터 생성 모듈(200)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크를 학습시키는 제1 학생 학습부(310); 및
    상기 소프트 타겟 데이터 생성 모듈(200)에서 생성된 데이터 세트 B*를 이용하여, 학생 랜덤 포레스트를 학습시키는 제2 학생 학습부(320)를 포함하고,
    상기 제1 학생 학습부(310)는,
    (3-1-1) 학생 네트워크의 파라미터(WS)를 초기화하는 단계;
    (3-1-2) 사전 학습된 네트워크에 상기 데이터 세트 B*를 입력하는 단계;
    (3-1-3) 손실 함수(loss function, L(Ws))를 계산하는 단계;
    (3-1-4)
    Figure 112020112564623-pat00031
    를 WS *로 업데이트하는 단계; 및
    (3-1-5) 학생 네트워크를 위한 최적 파라미터 WS *를 선택하는 단계를 수행하여, 상기 학생 네트워크를 학습시키는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
  2. 제1항에 있어서, 상기 데이터 세트 A는,
    클래스 레이블이 포함되는 하드 타겟 데이터 세트인 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
  3. 제1항에 있어서, 상기 데이터 세트 B는,
    클래스 레이블이 포함되지 않는 데이터 세트인 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
  4. 제1항에 있어서, 상기 교사 학습 모듈(100)은,
    상기 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시키는 제1 교사 학습부(110); 및
    상기 교사 심층 네트워크의 특징 맵(feature map)을 이용하여 교사 랜덤 포레스트를 학습시키는 제2 교사 학습부(120)를 포함하는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
  5. 제1항에 있어서, 상기 교사 심층 네트워크는,
    각각의 클래스의 확률값인 소프트 타겟 출력을 얻기 위해, 연화된 소프트맥스 함수(softened softmax function)를 적용한 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
  6. 제1항에 있어서,
    웨이블렛 변환을 적용하여 입력 이미지에 대한 전처리를 수행하는 전처리 모듈(500)을 더 포함하는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
  7. 삭제
  8. 삭제
  9. 제1항에 있어서, 상기 단계 (3-1-3)에서,
    다음 수학식을 이용해 손실 함수를 계산하는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
    Figure 112020112564623-pat00014

    상기 수학식에서, N은 데이터 세트 B*의 샘플 수, C는 클래스 수, PT(xi|cj)와 PS(xi|cj)는 각각 입력 벡터 xi에 대한 교사와 학생의 후방(posterior) 클래스 확률임.
  10. 제1항에 있어서, 상기 제2 학생 학습부(320)는,
    (3-2-1) 교사 랜덤 포레스트의 t번째 트리 구조(T-RFt)를 학생 랜덤 포레스트의 t번째 트리 구조(S-RFt)로 복사하여 이전학습(Transfer Learning)을 하는 단계;
    (3-2-2) 입력벡터 v를 갖는 데이터 세트 B*를 S-RFt의 의사결정 트리 중 하나에 입력하는 단계;
    (3-2-3) 노드 O에서 스플릿 함수 f(v)를 생성하는 단계;
    (3-2-4) 노드 O에서 정보 이득(information gain) ΔE을 계산하는 단계;
    (3-2-5) 교차-엔트로피(cross-entropy) Tr(Te, S)t를 계산하는 단계; 및
    (3-2-6) 상기 계산된 교차-엔트로피가 부스팅을 멈추는 최소 임계값 미만이면, 현재의 S-RFt를 저장하고, 그렇지 않으면 상기 단계 (3-2-2)부터 재수행하는 단계를 T개의 랜덤 의사결정 트리를 구성할 때까지 수행하여, 상기 학생 랜덤 포레스트를 학습시키는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템.
  11. 컴퓨터로 구현되는 교사-학생 프레임워크 시스템에 의해 각 단계가 수행되는 분류 방법으로서,
    (1) 데이터 세트 A를 이용하여, 교사 심층 네트워크 및 교사 랜덤 포레스트로 구성되는 교사 모델을 학습시키는 단계;
    (2) 데이터 세트 B를 상기 단계 (1)에서 학습된 교사 심층 네트워크 및 교사 랜덤 포레스트에 입력하고, 출력된 두 출력을 결합하여 소프트 타겟 데이터 세트 B*를 생성하는 단계;
    (3) 상기 단계 (2)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크 및 학생 랜덤 포레스트로 구성되는 학생 모델을 학습시키는 단계; 및
    (4) 상기 단계 (3)에서 학습된 학생 네트워크 및 학생 랜덤 포레스트의 두 출력을 결합하여 분류를 수행하는 단계를 포함하며,
    상기 단계 (3)은,
    (3-1) 상기 단계 (2)에서 생성된 데이터 세트 B*를 이용하여, 학생 네트워크를 학습시키는 단계; 및
    (3-2) 상기 단계 (2)에서 생성된 데이터 세트 B*를 이용하여, 학생 랜덤 포레스트를 학습시키는 단계를 포함하고,
    상기 단계 (3-1)은,
    (3-1-1) 학생 네트워크의 파라미터(WS)를 초기화하는 단계;
    (3-1-2) 사전 학습된 네트워크에 상기 데이터 세트 B*를 입력하는 단계;
    (3-1-3) 손실 함수(loss function, L(Ws))를 계산하는 단계;
    (3-1-4)
    Figure 112020112564623-pat00032
    를 WS *로 업데이트하는 단계; 및
    (3-1-5) 학생 네트워크를 위한 최적 파라미터 WS *를 선택하는 단계를 수행하여, 상기 학생 네트워크를 학습시키는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
  12. 제11항에 있어서, 상기 데이터 세트 A는,
    클래스 레이블이 포함되는 하드 타겟 데이터 세트인 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
  13. 제11항에 있어서, 상기 데이터 세트 B는,
    클래스 레이블이 포함되지 않는 데이터 세트인 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
  14. 제11항에 있어서, 상기 단계 (1)은,
    (1-1) 상기 데이터 세트 A를 이용하여 교사 심층 네트워크를 학습시키는 단계; 및
    (1-2) 상기 교사 심층 네트워크의 특징 맵(feature map)을 이용하여 교사 랜덤 포레스트를 학습시키는 단계를 포함하는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
  15. 제11항에 있어서, 상기 교사 심층 네트워크는,
    각각의 클래스의 확률값인 소프트 타겟 출력을 얻기 위해, 연화된 소프트맥스 함수(softened softmax function)를 적용한 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
  16. 제11항에 있어서,
    (0) 웨이블렛 변환을 적용하여 입력 이미지에 대한 전처리를 수행하는 단계를 더 포함하는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
  17. 삭제
  18. 삭제
  19. 제11항에 있어서, 상기 단계 (3-1-3)에서,
    다음 수학식을 이용해 손실 함수를 계산하는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
    Figure 112020112564623-pat00016

    상기 수학식에서, N은 데이터 세트 B*의 샘플 수, C는 클래스 수, PT(xi|cj)와 PS(xi|cj)는 각각 입력 벡터 xi에 대한 교사와 학생의 후방(posterior) 클래스 확률임.
  20. 제11항에 있어서, 상기 단계 (3-2)는,
    (3-2-1) 교사 랜덤 포레스트의 t번째 트리 구조(T-RFt)를 학생 랜덤 포레스트의 t번째 트리 구조(S-RFt)로 복사하여 이전학습(Transfer Learning)을 하는 단계;
    (3-2-2) 입력벡터 v를 갖는 데이터 세트 B*를 S-RFt의 의사결정 트리 중 하나에 입력하는 단계;
    (3-2-3) 노드 O에서 스플릿 함수 f(v)를 생성하는 단계;
    (3-2-4) 노드 O에서 정보 이득(information gain) ΔE을 계산하는 단계;
    (3-2-5) 교차-엔트로피(cross-entropy) Tr(Te, S)t를 계산하는 단계; 및
    (3-2-6) 상기 계산된 교차-엔트로피가 부스팅을 멈추는 최소 임계값 미만이면, 현재의 S-RFt를 저장하고, 그렇지 않으면 상기 단계 (3-2-2)부터 재수행하는 단계를 T개의 랜덤 의사결정 트리를 구성할 때까지 수행하여, 상기 학생 랜덤 포레스트를 학습시키는 것을 특징으로 하는, 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 시스템의 분류 방법.
KR1020190043980A 2019-04-15 2019-04-15 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법 KR102224253B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190043980A KR102224253B1 (ko) 2019-04-15 2019-04-15 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190043980A KR102224253B1 (ko) 2019-04-15 2019-04-15 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법

Publications (2)

Publication Number Publication Date
KR20200121206A KR20200121206A (ko) 2020-10-23
KR102224253B1 true KR102224253B1 (ko) 2021-03-08

Family

ID=73039458

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190043980A KR102224253B1 (ko) 2019-04-15 2019-04-15 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법

Country Status (1)

Country Link
KR (1) KR102224253B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102460521B1 (ko) 2022-04-22 2022-10-31 주식회사 플랜티넷 협력적인 클라이언트-서버 구조의 딥러닝 모델 앙상블 시스템 및 방법
KR102472596B1 (ko) 2022-04-22 2022-11-30 주식회사 플랜티넷 레이어 적응적 임계값 결정 기반 딥러닝 모델 앙상블 장치 및 방법
KR102535010B1 (ko) 2022-04-27 2023-05-26 주식회사 플랜티넷 가중치 기반 앙상블 모델 선택 시스템 및 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102497387B1 (ko) * 2020-11-12 2023-02-10 계명대학교 산학협력단 교차-엔트로피 샤플리를 이용한 서로게이트 랜덤 포레스트 모델의 경량화 방법 및 장치
CN113792574B (zh) * 2021-07-14 2023-12-19 哈尔滨工程大学 一种基于度量学习和教师学生模型的跨数据集表情识别方法
CN113705646B (zh) * 2021-08-18 2024-05-10 西安交通大学 基于半监督元学习的射频细微特征信息提取方法及系统
CN113989495B (zh) * 2021-11-17 2024-04-26 大连理工大学 一种基于视觉的行人召车行为识别方法
KR102668766B1 (ko) * 2021-11-30 2024-05-24 한국생산기술연구원 상품 수요예측 모델 생성방법 및 이를 이용하여 상품의 수요를 예측하는 방법
CN114155436B (zh) * 2021-12-06 2024-05-24 大连理工大学 长尾分布的遥感图像目标识别逐步蒸馏学习方法
CN114511066A (zh) * 2022-01-27 2022-05-17 北京百度网讯科技有限公司 神经网络训练方法、目标检测方法、装置、设备和介质
CN114969321B (zh) * 2022-03-14 2024-03-22 北京工业大学 基于多权重自训练的环境类投诉举报文本分类方法
CN114882534B (zh) * 2022-05-31 2024-03-26 合肥工业大学 基于反事实注意力学习的行人再识别方法、系统、介质
CN117452969A (zh) * 2023-12-06 2024-01-26 南京瑞蓝世光电传感技术研究院有限公司 基于多模态数据处理的无人机导航方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100794516B1 (ko) * 2007-12-03 2008-01-14 한국정보통신대학교 산학협력단 사례 기반 기계학습 추론을 이용한 질환 진단 및 검사 항목선정 시스템 및 방법
JP2018005640A (ja) * 2016-07-04 2018-01-11 タカノ株式会社 分類器生成装置、画像検査装置、及び、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100794516B1 (ko) * 2007-12-03 2008-01-14 한국정보통신대학교 산학협력단 사례 기반 기계학습 추론을 이용한 질환 진단 및 검사 항목선정 시스템 및 방법
JP2018005640A (ja) * 2016-07-04 2018-01-11 タカノ株式会社 分類器生成装置、画像検査装置、及び、プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"소프트 타겟 학습 기법을 활용한 랜덤 포레스트 경량화와 이를 이용한 보행자 검출", 한국정보과학회 학술발표논문집(pp. 811-813), 2017년*
"저노출 카메라와 웨이블릿 기반 랜덤 포레스트를 이용한 야간 자동차 전조등 및 후미등 인식", 방송공학회논문지 제22권 제3호(p. 288) 2017년

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102460521B1 (ko) 2022-04-22 2022-10-31 주식회사 플랜티넷 협력적인 클라이언트-서버 구조의 딥러닝 모델 앙상블 시스템 및 방법
KR102472596B1 (ko) 2022-04-22 2022-11-30 주식회사 플랜티넷 레이어 적응적 임계값 결정 기반 딥러닝 모델 앙상블 장치 및 방법
KR102535010B1 (ko) 2022-04-27 2023-05-26 주식회사 플랜티넷 가중치 기반 앙상블 모델 선택 시스템 및 방법

Also Published As

Publication number Publication date
KR20200121206A (ko) 2020-10-23

Similar Documents

Publication Publication Date Title
KR102224253B1 (ko) 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법
Chauhan et al. Convolutional neural network (CNN) for image detection and recognition
CN110163187B (zh) 基于f-rcnn的远距离交通标志检测识别方法
Alani et al. Hand gesture recognition using an adapted convolutional neural network with data augmentation
AlDahoul et al. Real‐Time Human Detection for Aerial Captured Video Sequences via Deep Models
Teow Understanding convolutional neural networks using a minimal model for handwritten digit recognition
US8649594B1 (en) Active and adaptive intelligent video surveillance system
US20160224903A1 (en) Hyper-parameter selection for deep convolutional networks
Lange et al. Online vehicle detection using deep neural networks and lidar based preselected image patches
US10699192B1 (en) Method for optimizing hyperparameters of auto-labeling device which auto-labels training images for use in deep learning network to analyze images with high precision, and optimizing device using the same
JP2005044330A (ja) 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
Kumar et al. Deep Gaussian processes with convolutional kernels
CN113989890A (zh) 基于多通道融合和轻量级神经网络的人脸表情识别方法
US11695898B2 (en) Video processing using a spectral decomposition layer
US20220156528A1 (en) Distance-based boundary aware semantic segmentation
Pavel et al. Recurrent convolutional neural networks for object-class segmentation of RGB-D video
Zhang et al. Deep classification of vehicle makers and models: The effectiveness of pre-training and data enhancement
John et al. Real-time hand posture and gesture-based touchless automotive user interface using deep learning
Khellal et al. Pedestrian classification and detection in far infrared images
KR102178469B1 (ko) 교사-학생 프레임워크 기반의 소프트 타겟 학습방법을 이용한 보행자 포즈 방향 추정 방법 및 시스템
CN114492634A (zh) 一种细粒度装备图片分类识别方法及系统
Bailly et al. Boosting feature selection for neural network based regression
Putro et al. Fast eye detector using CPU based lightweight convolutional neural network
Teršek et al. Re-evaluation of the CNN-based state-of-the-art crowd-counting methods with enhancements
Chand et al. A Review on Various CNN-based Approaches for Facial Expression Recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant