KR20130114417A - 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법 - Google Patents

훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법 Download PDF

Info

Publication number
KR20130114417A
KR20130114417A KR1020120036754A KR20120036754A KR20130114417A KR 20130114417 A KR20130114417 A KR 20130114417A KR 1020120036754 A KR1020120036754 A KR 1020120036754A KR 20120036754 A KR20120036754 A KR 20120036754A KR 20130114417 A KR20130114417 A KR 20130114417A
Authority
KR
South Korea
Prior art keywords
training function
training
function
vectors
calculated
Prior art date
Application number
KR1020120036754A
Other languages
English (en)
Inventor
윤상훈
여준기
천익재
석정희
노태문
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020120036754A priority Critical patent/KR20130114417A/ko
Priority to US13/620,319 priority patent/US20130268467A1/en
Publication of KR20130114417A publication Critical patent/KR20130114417A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Computing Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법에 관한 것이다. 본 발명의 실시예에 의한 훈련 함수 생성 방법은 훈련 벡터들을 입력받는 단계, 상기 훈련 벡터들로부터 훈련 함수를 계산하는 단계 및 상기 계산된 훈련 함수의 분류 성능을 미리 지정된 분류 성능과 비교하고, 비교 결과에 따라 훈련 함수를 다시 계산하는 단계를 포함하며, 상기 훈련 함수를 다시 계산하는 단계는 상기 계산된 훈련 함수의 오검출 확률과 미검출 확률 사이의 우선 순위를 변화시키는 단계 및 상기 변화된 우선 순위에 따라 훈련 함수를 다시 계산하는 단계를 포함한다. 따라서 본 발명에 의한 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법은 적은 계산량으로 높은 분류 성능을 가진다.

Description

훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법{TRAINIG FUNCTION GENERATING DEVICE, TRAINIG FUNCTION GENERATING METHOD AND FEATURE VECTOR CLASSIFICATION METHOD USING THEREOF}
본 발명은 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법에 관한 것이다.
특징 벡터의 분류는 인식 기술의 성능과 속도를 결정하는 가장 중요한 요소 중 하나이다. 그 중 서포트 벡터 머신(Support Vector Machine, 이하 SVM)은 기계를 이용한 물체 분류 및 인식 등에 사용되는 많은 방식 중 우수한 성능으로 인해 가장 많이 사용되고 있는 방법 중 하나이다.
하지만 SVM을 이용하여 높은 성능을 나타내기 위해서는 비선형 커널을 이용하여 많은 수의 서포트 벡터를 저장해야 한다. 또한 입력 벡터와 서포트 벡터간의 복잡한 연산도 필요로 한다. 이를 실시간 처리하기 위해서는 많은 병렬처리용 하드웨어가 소요되므로 임베디드 시스템으로의 구현에 많은 어려움이 있다.
이와 같은 연산 복잡도를 간략화하기 위하여 종래에는 서포트 벡터의 수를 감소시키는 방법이 사용되었으나 이와 같은 방법들은 분류 성능이 심각하게 저하되는 단점이 있다. 따라서 이를 개선하기 위한 기술이 요구되는 상황이다.
본 발명은 적은 계산량으로 높은 분류 성능을 가지는 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법을 제공하는 것에 그 목적이 있다.
본 발명의 실시예에 의한 훈련 함수 생성 방법은 훈련 벡터들을 입력받는 단계, 상기 훈련 벡터들로부터 훈련 함수를 계산하는 단계 및 상기 계산된 훈련 함수의 분류 성능을 미리 지정된 분류 성능과 비교하고, 비교 결과에 따라 훈련 함수를 다시 계산하는 단계를 포함하며, 상기 훈련 함수를 다시 계산하는 단계는 상기 계산된 훈련 함수의 오검출 확률과 미검출 확률 사이의 우선 순위를 변화시키는 단계 및 상기 변화된 우선 순위에 따라 훈련 함수를 다시 계산하는 단계를 포함한다.
실시예에 있어서, 상기 계산된 훈련 함수의 분류 성능은 상기 계산된 훈련 함수의 상기 오검출 확률과 상기 미검출 확률에 의하여 결정된다.
실시예에 있어서, 상기 계산된 훈련 함수의 분류 성능은 상기 계산된 훈련 함수가 미리 지정된 오검출 확률을 가질 때의 미검출 확률이다.
실시예에 있어서, 상기 계산된 훈련 함수는 선형 함수이다.
실시예에 있어서, 상기 훈련 함수를 계산하는 단계는 상기 훈련 벡터들에 대응하는 평균제곱오차를 이용한다.
실시예에 있어서, 상기 계산된 훈련 함수는 평균제곱오차의 최소값을 가진다.
실시예에 있어서, 상기 훈련 함수를 다시 계산하는 단계는 새로운 훈련 벡터를 입력받는 단계를 더 포함하며, 상기 다시 계산된 훈련 함수는 상기 변화된 우선 순위에 따라 상기 새로 입력된 훈련 벡터들로부터 계산된다.
실시예에 있어서, 상기 다시 계산된 훈련 함수는 상기 훈련 벡터들에 대한 저장 계수 및 상기 새로 추가된 훈련 벡터에 의존하여 계산된다.
실시예에 있어서, 상기 훈련 벡터들로부터 훈련 함수를 계산하는 단계는 상기 입력된 훈련 벡터들을 확장하는 단계 및 상기 확장된 훈련 벡터들로부터 상기 훈련 함수를 계산하는 단계를 포함한다.
본 발명의 실시예에 의한 훈련 함수 생성 방법은 훈련 함수를 생성하는 단계, 상기 생성된 훈련 함수를 이용하여 특징 벡터의 결정값을 계산하는 단계 및 상기 계산된 특징 벡터의 결정값을 클래스 기준값과 비교하여 상기 특징 벡터를 분류하는 단계를 포함하며, 상기 훈련 함수를 생성하는 단계는 초기 훈련 벡터들로부터 초기 훈련 함수를 계산하는 단계 및 상기 초기 훈련 함수의 분류 성능을 미리 지정된 분류 성능과 비교하고, 비교 결과에 따라 훈련 함수를 다시 계산하는 단계를 포함하며, 상기 훈련 함수를 다시 계산하는 단계는 상기 계산된 훈련 함수의 오검출 확률과 미검출 확률 사이의 우선 순위를 변화시키는 단계 및 상기 변화된 우선 순위에 따라 훈련 함수를 다시 계산하는 단계를 포함한다.
실시예에 있어서, 상기 초기 훈련 벡터들로부터 초기 훈련 함수를 계산하는 단계는 새로운 훈련 벡터를 추가하는 단계 및 상기 초기 훈련 벡터들에 대한 저장 계수 및 상기 새로 추가된 훈련 벡터들에 의존하여 초기 훈련 함수를 계산하는 단계를 포함한다.
실시예에 있어서, 상기 초기 훈련 함수의 분류 성능은 상기 초기 훈련 함수의 상기 오검출 확률 및 상기 미검출 확률에 의하여 결정된다.
본 발명의 실시예에 의한 훈련 함수 생성 장치는 미리 설정된 우선 순위를 이용하여, 초기 훈련 함수를 계산하는 훈련 함수 계산부, 상기 초기 훈련 함수의 분류 성능을 미리 설정된 분류 성능과 비교하여, 훈련 함수의 재 계산 여부를 결정하는 루프 결정부 및 상기 훈련 함수 계산부에서 계산된 훈련 함수를 출력하는 훈련 함수 생성부를 포함하며, 상기 루프 결정부는 상기 초기 훈련 함수의 분류 성능을 상기 미리 설정된 분류 성능과 비교하고, 비교 결과에 따라 상기 미리 설정된 우선 순위를 변화시킨다.
실시예에 있어서, 상기 훈련 함수 계산부는 훈련 벡터들에 대응하는 평균제곱오차를 이용하여 상기 초기 훈련 함수를 계산한다.
실시예에 있어서, 상기 루프 결정부는 상기 계산된 초기 훈련 함수가 미리 지정된 오검출 확률을 가질 때의 미검출 확률을 이용하여 상기 계산된 초기 훈련 함수의 분류 성능을 판단한다.
본 발명에 의한 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법은 적은 계산량으로 높은 분류 성능을 가진다.
도 1은 본 발명의 실시예에 의한 특징 벡터 분류 방법을 도시하는 순서도이다.
도 2는 본 발명의 실시예에 의한 훈련 함수 생성 장치이다.
도 3은 본 발명의 실시예에 의한 훈련 함수 생성 방법을 도시하는 순서도이다.
도 4는 본 발명의 다른 실시예에 의한 훈련 함수 생성 방법을 도시하는 순서도이다.
도 5는 참 벡터와 거짓 벡터에 대한 중요도가 동일할 때의 훈련 벡터들의 확률 분포를 나타내는 그래프이다.
도 6은 거짓 벡터를 우선시한 중요도를 가질 때의 훈련 벡터들의 확률 분포를 나타내는 그래프이다.
도 7은 본 발명의 효과를 실험하기 위하여 HOG-LBP descriptor를 이용하여 계산의 복잡도를 측정하는데 사용된 파라미터들을 나타낸 표이다.
도 8은 도 7의 파라미터들을 이용하여 HOG와 HOG-LBP descriptor를 사용하였을 때 감소된 곱셈 연산수를 나타내는 표이다.
도 9는 중요도를 변화시키며 윈도우 당 오검출(FPPW: false positive per window) 당 미검출(miss detection)률을 실험한 결과를 나타내는 그래프이다.
도 10은 중요도를 다르게 변화시키며 윈도우 당 오검출(FPPW: false positive per window) 당 미검출(miss detection)률을 실험한 결과를 나타내는 그래프이다.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있도록 본 발명의 실시예가 첨부된 도면을 참조하여 설명한다. 또한 이하에서 사용되는 용어들은 오직 본 발명을 설명하기 위하여 사용된 것이며 본 발명의 범위를 한정하기 위해 사용된 것은 아니다. 앞의 일반적인 설명 및 다음의 상세한 설명은 모두 예시적인 것으로 이해되어야 하며, 청구된 발명의 부가적인 설명이 제공되는 것으로 여겨져야 한다.
도 1은 본 발명의 실시예에 의한 특징 벡터 분류 방법을 도시하는 순서도이다. 본 실시예의 특징 벡터 분류 방법에 의하면, 특징 벡터(Feature vector)는 훈련 함수(Training function)에 의하여 클래스(Class) 별로 분류된다. 따라서 특징 벡터 분류 방법의 효율을 높이기 위해서는 낮은 계산량 및 높은 분류 성능을 가지는 훈련 함수가 사용되어야 한다. 도 1을 참조하면, 특징 벡터의 클래스를 분류하는 방법은 이하와 같다.
S100 단계에서, 분류하고자 하는 특징 벡터가 특정된다. 특징 벡터 x는 수학식 1과 같이 표현될 수 있다.
Figure pat00001
특징 벡터는 d개의 특성(feature)을 가지는 벡터이다. 특징 벡터의 각 특성은 벡터를 분류하기 위하여 기정규화된 특징을 나타낸다. 특징 벡터는 각 특성에 의하여 클래스 별로 분류된다.
예를 들어, 특징 벡터가 영상 화면을 나타내는 벡터인 경우, 각 특성은 화상에서 색상의 분포도, 경계의 명료도 등일 수 있을 것이다. 이때 클래스는 영상 화면이 사람의 얼굴인지 여부 등일 수 있을 것이다. 이는 오직 예시적인 것에 불과하며 본 발명은 이에 한정되지 않는다.
S110 단계에서, 훈련 함수(Training Function)에 의하여 특징 벡터에 대한 결정값(decision value)이 계산된다. 이 과정은 수학식 2와 같이 표현될 수 있다.
Figure pat00002
D는 훈련 함수에 의하여 계산된 특징 벡터의 결정값이다. x는 분류하고자 하는 특징 벡터이다. f는 훈련 함수이다.
훈련 함수는 특징 벡터의 클래스를 분류하기 위하여 훈련 벡터(Training vector)들에 의해 생성된 함수이다. 훈련 벡터는 미리 조사된 샘플 벡터이다. 훈련 함수의 생성 방법은 이후 도 2를 참조하여 자세하게 설명한다.
S120 단계에서, S110 단계에서 계산된 결정값은 클래스 기준값(Class Threshold)과 비교된다. 클래스 기준값은 결정값에 의해 클래스를 분류하기 위하여 미리 결정된 기준값이다.
S130 단계에서, S120의 비교 결과에 의하여 특징 벡터의 클래스가 분류된다. 예를 들어, 특징 벡터의 클래스가 제 1 클래스 및 제 2 클래스의 2가지라고 가정한다. 이때 결정값이 클래스 기준값 이상이면 특징 벡터는 제 1 클래스로, 미만이면 제 2 클래스로 분류될 수 있다.
위에서 논한 바와 같이 본 실시예에 의한 특징 벡터 분류 방법은 훈련 함수에 의하여 계산된 결정값을 통해 특징 벡터의 클래스를 분류한다. 따라서 본 실시예에 의한 특징 벡터 분류 방법의 성능을 향상시키기 위해서는 낮은 계산량 및 높은 분류 성능을 가지는 훈련 함수를 생성하여야 한다.
일반적으로 훈련 함수를 생성하기 위해 사용되는 훈련 벡터의 수는 매우 많다. 따라서 빠르고 효율적인 분류를 위해서는 훈련 함수를 통하여 결정값을 계산하는 과정에서 요구되는 계산량 뿐만 아니라 훈련 함수를 생성하는 과정에서 요구되는 계산량이 감소될 필요가 있다. 또, 분류 성능을 높이기 위하여 분류 과정 중 다른 샘플 벡터가 추가되었을 경우 새로운 훈련 함수를 간편하게 생성할 수 있어야 한다. 이하 도 2를 참조하여 본 발명의 실시예에 의한 훈련 함수 생성 방법을 설명한다.
도 2는 본 발명의 실시예에 의한 훈련 함수 생성 장치이다. 도 2를 참조하면, 훈련 함수 생성 장치(100)는 초기 조건 설정부(110), 훈련 함수 계산부(120), 루프 결정부(130) 및 훈련 함수 생성부(140)를 포함한다.
초기 조건 설정부(110)는 훈련 함수를 생성하기 위하여 초기 조건을 설정한다. 초기 조건 설정부(110)에서 설정되는 초기 조건은 중요도 및 훈련 함수의 분류 성능을 포함할 수 있다. 중요도는 오검출(FA: False Alarm) 확률과 미검출(MD: Miss Detection) 간의 우선 순위를 결정하기 위한 상수이다. 중요도에 관하여는 후에 실시예와 함께 더 자세히 설명한다.
훈련 함수 계산부(120)는 훈련 벡터들에 대하여 중요도에 따른 최소평균제곱오차(MMSE: Minimum Mean Square Error)를 가지는 훈련 함수를 계산한다. 훈련 함수 계산부(120)에서 계산되는 훈련 함수는 선형 함수일 수 있다. 즉, 훈련 함수 계산부(120)는 훈련 함수를 계산하기 위하여 특징 벡터에 곱해지는 선형 계수(Linear Coefficient) 및 바이어스(Bias)를 계산할 수 있다.
루프 결정부(130)는 훈련 함수 계산부(120)에서 계산된 훈련 함수의 분류 성능이 초기 조건 설정부(110)에서 미리 지정된 조건을 만족하는지 판단한다. 루프 결정부(130)에서 판단되는 분류 성능은 동일한 오검출(FA: Falese Alarm) 확률에 대한 미검출(MD: Miss Detection) 확률로 판단될 수 있다. 루프 결정부(130)는 분류 성능이 미리 지정된 조건을 만족하지 못하면 중요도를 변화시켜 훈련 함수 계산부(120)에 재계산을 요청한다.
훈련 함수 생성부(140)는, 계산된 훈련 함수의 분류 성능이 초기 조건 설정부(110)에서 미리 지정된 조건을 만족하면, 훈련 함수 계산부(120)에서 계산된 계수 및 바이어스에 따라 훈련 함수를 생성한다.
따라서 본 실시예에 의한 훈련 함수 생성 장치(100)는 훈련 벡터들에 대하여 중요도에 따른 최소평균제곱오차를 가지는 훈련 함수를 계산한다. 또, 계산된 훈련 함수가 미리 지정된 분류 성능을 만족하지 못하면 중요도를 변화시켜 재계산함으로써 분류 성능을 더욱 개선한다. 이하 본 발명의 실시예에 의한 훈련 함수 생성 방법을 다른 실시예를 통해 더욱 상세히 설명한다.
도 3은 본 발명의 실시예에 의한 훈련 함수 생성 방법을 도시하는 순서도이다. 도 3을 참조하면, 훈련 벡터들을 이용하여 훈련 함수를 생성하는 방법은 아래와 같다.
S200 단계에서, 훈련 함수를 생성하기 위한 훈련 벡터들의 집합이 선택된다. N개의 훈련 벡터의 집합 X는 아래의 수학식과 같이 표현될 수 있다.
Figure pat00003
xi는 d개의 특성을 가지는 훈련 벡터이다. yi는 훈련 벡터 xi의 클래스를 나타낸다. 본 실시예에서 훈련 벡터들의 클래스는 참(Positive) 또는 거짓(Negative)의 2가지(bipartite)라 가정한다. 그러나 이는 예시적인 것으로 본 발명에 있어 훈련 벡터들의 클래스의 수는 한정되지 않는다.
S210 단계에서, 훈련 함수를 생성하기 위한 초기 조건이 설정된다. 설정되는 초기 조건은 중요도(Significance) 및 미검출 기준값(Miss Detection Thershold)를 포함한다.
중요도는 오검출(FA: False Alarm) 확률과 미검출(MD: Miss detection) 간의 우선 순위를 결정하기 위한 상수이다. 중요도에 따라 참 벡터(클래스가 참인 훈련 벡터)와 거짓 벡터(클래스가 거짓인 훈련 벡터)의 확률 분포가 변화된다.
따라서 중요도를 변화시킴에 따라 훈련 함수의 분류 과정에서 참 벡터가 거짓으로 판단되는 미검출 및 거짓 벡터가 참으로 판단되는 오검출 중 어느 것이 우선시될지 결정된다. 미검출 및 오검출의 우선 순위는 상황에 따라 변화될 것이다. 중요도 χ는 수학식 4와 같이 표현된다.
Figure pat00004
수학식 4에서, M은 참 벡터들의 수이다. L는 거짓 벡터들의 수이다. A는 참 벡터들의 집합이다. B는 거짓 벡터들의 집합이다. 이를 통해 수학식 4의 계수를 계산하면 아래와 같다.
Figure pat00005
Figure pat00006
J1xM은 1로만 구성된 1xM 행렬이다. J1xL은 1로만 구성된 1xL 행렬이다. 따라서 J1xMA는 모든 참 벡터들의 합벡터를 의미한다. J1xMA는 모든 거짓 벡터들의 합벡터를 의미한다.
S220 단계에서, 훈련 벡터들로부터 훈련 함수가 계산된다. 본 실시예에서 훈련 함수는 참 벡터들 및 거짓 벡터들의 분포에 대하여 최소평균제곱오차(MMSE: Minimum Mean Square Error)를 가지도록 생성된다.
훈련 함수는 여러 형태를 취할 수 있다. 본 실시예에서 훈련 함수는 수학식 7과 같은 선형 함수의 형태로 표현된다. 그러나 이는 예시적인 것으로 본 발명이 반드시 이에 한정되는 것은 아니다.
Figure pat00007
수학식 7에서, x는 분류하고자 하는 특징 벡터이다. p는 특징 벡터와 연산되는 훈련 계수(training coefficient)이고, b는 바이어스(bias)이다. 훈련 함수의 훈련 계수와 바이어스는 훈련 벡터들로부터 계산된다. 이하 수학식 8 내지 수학식 13을 참조하여 훈련 계수 및 바이어스를 계산하는 법에 대하여 설명한다.
본 발명의 일실시예에 의한 목적 함수 t는 아래의 수학식으로 표현된다.
Figure pat00008
목적 함수 t는 주어진 훈련 벡터들에 대한 평균제곱오차를 나타낸다. 수학식 4에서와 같이, A는 참 벡터들의 집합, B는 거짓 벡터들의 집합, M은 참 벡터들의 수, L은 거짓 벡터들의 수, χ는 중요도를 나타낸다. y는 참 벡터들의 결정값의 기대값이다. x는 거짓 벡터들의 결정값의 기대값이다. p 및 b는 수학식 4에서 설명된 훈련 계수 및 바이어스이다. JMx1은 1로만 구성된 Mx1 행렬이다. JLx1은 1로만 구성된 Lx1 행렬이다. 본 실시예에서는 수학식 8과 같이 목적 함수를 계산하였으나 목적 함수는 반드시 수학식 8의 형태로 한정되는 것은 아니며 이는 본 발명의 일실시예에 불과하다. 수학식 8을 풀어 정리하면 수학식 9를 얻는다.
Figure pat00009
위에서 설명한 바와 같이, 수학식 8 및 수학식 9에서 목적 함수 t는 평균제곱오차를 나타낸다. 따라서 t가 최소가 되도록 하는 p 및 b를 계산하면 최소평균제곱오차를 가지는 훈련 함수를 얻을 수 있다.
Figure pat00010
수학식 10은 수학식 9의 목적 함수 t를 p에 대하여 미분한 식이다. 수학식 10 및 수학식 4에 따라 t가 최소가 되게 하는 p를 계산하면 수학식 11과 같다.
Figure pat00011
마찬가지로, 수학식 9의 목적 함수 t를 b에 대하여 미분하고, 이에 따라 t가 최소가 되게 하는 b를 계산하면 수학식 12 및 13과 같다.
Figure pat00012
Figure pat00013
따라서 위와 같은 과정을 통해 최소평균제곱오차를 가지는 선형 훈련 함수를 계산할 수 있다.
또한 수학식 11 및 수학식 13을 살펴보면, 새로운 훈련 벡터가 추가되었을 때 p 및 b를 계산하기 위하여 새로 계산이 요구되는 계수들은 ATA, BTB, ATy 및 BTz 뿐이다. 이 계수들을 저장 계수라 한다. 새로 추가된 참 벡터들의 집합을 a라 한다. 그리고 a가 추가된 새로운 참 벡터들의 집합을 A'라 한다. 그러면, 전치행렬(Transpose Matrix)의 특성에 의하여 A'TA'는 수학식 14와 같이 표현된다.
Figure pat00014
마찬가지로, 새로 추가된 거짓 벡터들의 집합을 f, f가 추가된 새로운 참 벡터들의 집합을 B'라 한다. 그러면, B'TB'는 수학식 15와 같이 표현된다.
Figure pat00015
마찬가지로, A'Ty는 ATy 및 a에 관한 식으로, B'Tz는 BTz 와 f에 관한 식으로 나타내어진다.
따라서 정리하면, 본 실시예에 의한 훈련 함수 생성 방법은 새로운 훈련 벡터가 추가되어도 저장된 저장 계수의 값에 새로운 훈련 벡터를 대입하여 새로운 훈련 함수를 생성할 수 있다. 따라서 기존의 훈련 함수 생성 방법과 같이 기존의 모든 훈련 벡터를 저장할 필요 없이 저장 계수만 저장하면 되어 계산량 및 계산에 요구되는 메모리의 측면에서 매우 효율적이다.
S230 단계에서, S220 단계에서 계산된 훈련 함수에 대하여, 미리 지정된 오검출(FA: False Alarm) 확률에 대하여 미검출(MD: Miss detection) 확률이 계산된다. 계산된 미검출 확률은 미리 지정된 미검출 기준값(Miss detection threshold)과 비교된다.
S235 단계에서, 계산된 미검출 확률이 미검출 기준값 이상이면, 오차 확률이 높다고 판단되어 중요도를 조절하여 다시 S220 단계부터 훈련 함수가 재계산된다.
S240 단계에서, 계산된 미검출 확률이 미검출 기준값 미만이면 분류 성능이 만족되었다 판단되어 계산된 결과대로 훈련 함수가 생성된다.
위에서 검토된 바와 같이 본 발명의 실시예에 의한 훈련 함수 생성 방법은 최소평균제곱오차를 가지는 훈련 함수를 생성하므로 높은 분류 성능을 가진다. 또한 본 발명의 실시예에 의한 훈련 함수 생성 방법을 통해 생성된 훈련 함수는 선형이므로 훈련 함수를 통해 특징 벡터를 분류하는 과정의 계산량이 감소된다. 또한 새로운 훈련 벡터가 추가되어도 새로운 훈련 함수를 적은 계산량과 메모리를 통해 생성할 수 있다.
더하여, 본 발명의 실시예에 의한 훈련 함수 생성 방법은 훈련 함수를 생성하는 과정에서 중요도를 도입한다. 이를 통해 훈련 함수 생성 방법은 원하는 오검출 확률 이하에서 최선의 미검출 확률을 가지는 훈련 함수를 생성할 수 있어 더욱 향상된 분류 성능을 가진다.
도 4는 본 발명의 다른 실시예에 의한 훈련 함수 생성 방법을 도시하는 순서도이다. 도 4의 훈련 함수 생성 방법은 도 2의 훈련 함수 생성 방법에 비하여 S305 단계가 추가된 점 이외에는 동일하므로 유사한 단계에 대하여 유사한 참조 번호를 사용하였다. 동일한 단계에 대한 설명은 생략된다.
도 4를 참조하면, S305 단계에서, S300 단계에서 선택된 훈련 벡터 집합은 확장된다. 예를 들어, 원래의 훈련 벡터가 [(x)] 였다면, [(x), (x)2, (x)3, e(x) ..] 등으로 훈련 벡터를 확장시킬 수 있다. 훈련 벡터의 원본을 사용하지 않고 훈련 벡터를 확장하여 사용함으로써 분류 성능을 향상시킬 수 있다.
도 3에서 설명된 바와 같이 본 발명의 실시예에 의한 훈련 함수 생성 방법은 훈련 계수 및 바이어스를 계산하는 과정의 복잡도가 높지 않다. 따라서 훈련 벡터를 확장하여 사용하여도 분류 성능이 향상되는 것에 비하여 계산 복잡도는 크게 증가되지 않는다.
도 3 및 도 4를 참조하면, 본 발명의 실시예에서 훈련 함수의 분류 성능은 미리 지정된 오검출(FA: False Alarm) 확률에 대한 미검출(MD: Miss detection) 확률로서 판단되었다. 오검출(FA: False Alarm) 확률에 대한 미검출(MD: Miss detection) 확률은 중요도가 변화됨에 따라 변화된다.
따라서 계산된 훈련 함수가 목적된 분류 성능에 도달될 때까지 중요도를 변화시키면, 미리 지정된 기준치 이하의 오검출 확률을 가지면서도 작은 미검출 확률을 가지는 훈련 함수를 생성할 수 있다. 도 5를 참조하여 중요도에 의해 분류 성능이 조절되는 방법에 대하여 더 자세히 설명한다. 그러나 오검출(FA: False Alarm) 확률에 대한 미검출(MD: Miss detection) 확률은 분류 성능을 판단하는 기준의 일실시예에 불과하며, 본 발명이 이에 한정되는 것은 아니다.
도 5 및 도 6은 훈련 벡터들의 확률 분포(probability distribution)를 도시하는 그래프이다. 도 5 및 도 6의 훈련 벡터들은 서로 동일하나, 중요도는 서로 다르다.
클래스 기준값(Class Threshold)은 클래스 결정의 기준이 되는 값이다. 벡터의 결정값이 클래스 기준값 이상이면 해당 벡터는 참 벡터(Positive)로 판정된다. 벡터의 결정값이 클래스 기준값 미만이면 해당 벡터는 거짓 벡터(Negative)로 판정된다.
오검출 확률(FA: False Alarm)은 분류 대상이 된 벡터가 거짓 벡터인데도 참 벡터로 판정되는 확률이다. 따라서 오검출 확률은 수학식 16과 같이 계산된다.
Figure pat00016
FA는 오검출 확률을 나타낸다. N은 거짓 벡터의 확률 분포 함수이다. t는 클래스 기준값이다. 즉, 오검출 확률은 결정값이 클래스 기준값 이상인 거짓 벡터들의 확률의 합과 같다.
미검출(MD: Miss detection) 확률은 분류 대상이 된 벡터가 참 벡터인데도 거짓 벡터로 판정되는 확률이다. 따라서 미검출 확률은 수학식 17과 같이 계산된다.
Figure pat00017
MD는 미검출 확률을 나타낸다. P는 참 벡터의 확률 분포 함수이다. t는 클래스 기준값이다. 즉, 오검출 확률은 결정값이 클래스 기준값 미만인 참 벡터들의 확률의 합과 같다. 중요도에 의하여 참 벡터 및 거짓 벡터의 확률 분포가 결정되고, 이에 따라 클래스 기준값이 설정되면 오검출 확률과 미검출 확률은 특정된다.
벡터를 클래스 별로 분류함에 있어, 참 벡터가 거짓 벡터로 판정되는 것 보다 거짓 벡터임에도 참 벡터로 판정되는 것이 더 치명적인(critical) 경우가 많다. 따라서 오검출 확률의 기준을 미리 특정하고, 특정된 오검출 확률을 가지면서 최소의 미검출 확률을 가지도록 하면 분류 성능은 크게 향상될 것이다.
따라서 본 실시예에서는 오검출 확률을 미리 특정하고, 중요도를 조절하는 것으로 미검출 확률을 조절하여 최적의 분류 성능을 얻는다.
도 5는 참 벡터와 거짓 벡터에 대한 중요도가 동일할 때의 훈련 벡터들의 확률 분포를 나타낸다. 도 5를 참조하면, 거짓 벡터(Negatives)와 참 벡터(Positives)의 분포는 서로 동일하다.
반면, 도 6은 거짓 벡터를 우선시한 때의 훈련 벡터들의 확률 분포를 나타낸다. 도 6을 참조하면, 거짓 벡터의 확률 분포가 참 벡터의 확률 분포에 비하여 더욱 날카로운(sharp) 것을 확인할 수 있다.
도 5와 도 6의 클래스 기준값은 미리 특정된 동일한 오검출 확률을 가지도록 지정된다. 클래스 기준값이 지정됨에 따라 미검출 확률은 특정된다. 그러나 도 5와 도 6의 훈련 벡터들은 중요도에 따라 그 확률 분포가 서로 다르므로, 서로 다른 미검출 확률을 가진다. 예를 들어, 도시된 실시예에서 도 5의 중요도에 의한 미검출 확률은 도 6의 중요도에 의한 미검출 확률에 비해 7/2 가량 높다.
따라서 본 발명의 실시예에 의한 훈련 함수 생성 방법은 중요도를 조절하여 최적의 오검출 확률에 대한 미검출 확률을 가지는 훈련 함수를 생성할 수 있다.
도 7은 본 발명의 효과를 실험하기 위하여 HOG-LBP descriptor를 이용하여 계산의 복잡도를 측정하는데 사용된 파라미터들을 나타낸 표이다.
도 7에서 HOG(Histogram of Oriented Gradients)관련 파라메터를 살펴보면, 본 발명에서 블록을 구성하는 하나의 셀 크기(Cell size)는 8x8 픽셀로 지정하였다. 또한 검색 윈도우에 포함되는 블록 하나의 크기(Block size)는 2x2 셀, 즉 16x16 픽셀을 사용하였다. 검색 윈도우가 한 번 이동될 때 오버랩되는 정도는 하나의 셀 사이즈로 지정하였다.
정규화(Normalize)는 블록을 정규화 할 때 사용되는 정규화 팩터 (normalization factor)를 나타낸다. 본 발명에서는 L2-Hys가 사용되었다. 또한 지역 벡터 차원(Local vector dimension)은 사용되는 벡터의 차원을 나타낸다. 설명자 차원(Descriptor dimension)은 생성되는 HOG descriptor의 차원을 나타낸다. 본 발명에서는 표에서 나타난 바와 같이 36의 지역 벡터 차원을 사용하였으며, 이에 따라 3780의 설명자 차원이 계산되었다. 그러나 이는 예시적인 것으로 본 발명은 이에 한정되지 않는다.
LBP 관련 파라메터를 살펴보면, LBP에 대하여, 샘플에 대한 반지름(radius)은 1, 균일성을 판단하기 위한 최대 전환수(maximum transition)는 2, 샘플수는 8개를 사용하였다. 샘플은 중앙 픽셀에 대한 이웃(neighbor)의 수를 나타낸다. 블록 크기 및 정규화는 HOG와 동일하며, 지역 벡터 차원은 59이고, 이에 따라 계산된 설명자 차원은 1888이다.
도 8은 도 7의 파라미터들을 이용하여 HOG와 HOG-LBP descriptor를 사용하였을 때 감소된 곱셈 연산수를 나타내는 표이다. 여기서, 본 발명에 의한 방식은 MMSE라 명명하였다. 또한 본 발명에 의한 방식으로서 확장된 훈련 벡터를 사용하는 방식은 MMSE Extended라 명명하였다.
도 8을 참조하면, 기존의 RBF(Radial Basis Function), LSVM(Linear Support Vecror Machine) 및 AddBoost 방식에 비하여 본 발명의 실시예에 의한 훈련 함수 생성 방법에 의한 훈렴 함수는 적은 연산수로 높은 분류 성능를 가지는 것을 확인할 수 있다. 본 발명의 MMSE 방식은, 기존의 선형 SVM(LSVM)과 동일한 적은 연산수를 가짐에도 불구하고 LSVM에 비하여 높은 분류 성능을 가진다. 또한 본 발명의 MMSE Extended 방식은 사용되는 훈련 벡터의 수가 증가됨에 따라 연산량은 증가되지만, 비선형 커널을 가지는 SVM에 근접하는 높은 분류 성능을 가진다.
도 9 및 도 10은 중요도를 변화시키며 윈도우 당 오검출(FPPW: false positive per window) 당 미검출(miss detection)률을 실험한 결과이다. 도 9 및 도 10을 참조하면, 본 발명에 의한 분류 방법은 중요도를 변화시킴에 따라 기존의 LSVM 방식에 비하여 우수한 분류 성능을 가짐을 알 수 있다.
도 9에 의하면, 본 발명에 의한 분류 방법은 중요도가 1인 경우, 즉 오검출 확률과 미검출 확률에 대한 우선 순위가 동일한 경우에는 LSVM에 비하여 동일한 오검출 확률에 대하여 큰 미검출확률을 가지지만, 중요도가 3 및 5인 경우에는 LSVM에 비하여 작은 미검출 확률을 가진다.
또한 도 10에 의하면, 본 발명에 의한 분류 방법은 중요도가 증가됨에 따라 LSVM에 비하여 더욱 작은 미검출 확률을 나타냄을 확인할 수 있다. 따라서 본 발명에 의한 분류 방법은 LSVM에 비하여 우수한 분류 성능을 가진다.
본 발명의 상세한 설명에서는 구체적인 실시예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지로 변형될 수 있다. 예를 들어, 초기 조건 설정부, 훈련 함수 계산부, 루프 결정부 및 훈련 함수 생성부의 세부적 구성은 사용 환경이나 용도에 따라 다양하게 변화 또는 변경될 수 있을 것이다. 본 발명에서 사용된 특정한 용어들은 본 발명을 설명하기 위한 목적에서 사용된 것이며 그 의미를 한정하거나 특허 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 발명의 범위는 상술한 실시예에 국한되어서는 안되며 후술하는 특허 청구범위 뿐만 아니라 이 발명의 특허 청구범위와 균등한 범위에 대하여도 적용되어야 한다.
110: 초기 조건 설정부
120: 훈련 함수 계산부
130: 루프 결정부
140: 훈련 함수 생성부
MMSE: Minimum Mean Square Error
MD: Miss Detection
FA: False Alarm
LSVM: Linear Support Vector Machine
FPPW: False Positive Per Window

Claims (15)

  1. 훈련 벡터들을 입력받는 단계;
    상기 훈련 벡터들로부터 훈련 함수를 계산하는 단계; 및
    상기 계산된 훈련 함수의 분류 성능을 미리 지정된 분류 성능과 비교하고, 비교 결과에 따라 훈련 함수를 다시 계산하는 단계를 포함하며,
    상기 훈련 함수를 다시 계산하는 단계는
    상기 계산된 훈련 함수의 오검출 확률과 미검출 확률 사이의 우선 순위를 변화시키는 단계; 및
    상기 변화된 우선 순위에 따라 훈련 함수를 다시 계산하는 단계를 포함하는 훈련 함수 생성 방법.
  2. 제 1항에 있어서,
    상기 계산된 훈련 함수의 분류 성능은 상기 계산된 훈련 함수의 상기 오검출 확률과 상기 미검출 확률에 의하여 결정되는 훈련 함수 생성 방법.
  3. 제 2항에 있어서,
    상기 계산된 훈련 함수의 분류 성능은 상기 계산된 훈련 함수가 미리 지정된 오검출 확률을 가질 때의 미검출 확률인 훈련 함수 생성 방법.
  4. 제 1항에 있어서,
    상기 계산된 훈련 함수는 선형 함수인 훈련 함수 생성 방법.
  5. 제 1항에 있어서,
    상기 훈련 함수를 계산하는 단계는 상기 훈련 벡터들에 대응하는 평균제곱오차를 이용하는 훈련 함수 생성 방법.
  6. 제 5항에 있어서,
    상기 계산된 훈련 함수는 평균제곱오차의 최소값을 가지는 훈련 함수 생성 방법.
  7. 제 1항에 있어서,
    상기 훈련 함수를 다시 계산하는 단계는 새로운 훈련 벡터를 입력받는 단계를 더 포함하며,
    상기 다시 계산된 훈련 함수는 상기 변화된 우선 순위에 따라 상기 새로 입력된 훈련 벡터들로부터 계산되는 훈련 함수 생성 방법.
  8. 제 7항에 있어서,
    상기 다시 계산된 훈련 함수는 상기 훈련 벡터들에 대한 저장 계수 및 상기 새로 추가된 훈련 벡터에 의존하여 계산되는 훈련 함수 생성 방법.
  9. 제 1항에 있어서,
    상기 훈련 벡터들로부터 훈련 함수를 계산하는 단계는
    상기 입력된 훈련 벡터들을 확장하는 단계; 및
    상기 확장된 훈련 벡터들로부터 상기 훈련 함수를 계산하는 단계를 포함하는 훈련 함수 생성 방법.
  10. 훈련 함수를 생성하는 단계;
    상기 생성된 훈련 함수를 이용하여 특징 벡터의 결정값을 계산하는 단계; 및
    상기 계산된 특징 벡터의 결정값을 클래스 기준값과 비교하여 상기 특징 벡터를 분류하는 단계를 포함하며,
    상기 훈련 함수를 생성하는 단계는
    초기 훈련 벡터들로부터 초기 훈련 함수를 계산하는 단계; 및
    상기 초기 훈련 함수의 분류 성능을 미리 지정된 분류 성능과 비교하고, 비교 결과에 따라 훈련 함수를 다시 계산하는 단계를 포함하며,
    상기 훈련 함수를 다시 계산하는 단계는
    상기 계산된 훈련 함수의 오검출 확률과 미검출 확률 사이의 우선 순위를 변화시키는 단계; 및
    상기 변화된 우선 순위에 따라 훈련 함수를 다시 계산하는 단계를 포함하는 특징 벡터 분류 방법.
  11. 제 10항에 있어서,
    상기 초기 훈련 벡터들로부터 초기 훈련 함수를 계산하는 단계는
    새로운 훈련 벡터를 추가하는 단계; 및
    상기 초기 훈련 벡터들에 대한 저장 계수 및 상기 새로 추가된 훈련 벡터들에 의존하여 초기 훈련 함수를 계산하는 단계를 포함하는 특징 벡터 분류 방법.
  12. 제 10항에 있어서,
    상기 초기 훈련 함수의 분류 성능은 상기 초기 훈련 함수의 상기 오검출 확률 및 상기 미검출 확률에 의하여 결정되는 특징 벡터 분류 방법.
  13. 미리 설정된 우선 순위를 이용하여, 초기 훈련 함수를 계산하는 훈련 함수 계산부;
    상기 초기 훈련 함수의 분류 성능을 미리 설정된 분류 성능과 비교하여, 훈련 함수의 재 계산 여부를 결정하는 루프 결정부; 및
    상기 훈련 함수 계산부에서 계산된 훈련 함수를 출력하는 훈련 함수 생성부를 포함하며,
    상기 루프 결정부는 상기 초기 훈련 함수의 분류 성능을 상기 미리 설정된 분류 성능과 비교하고, 비교 결과에 따라 상기 미리 설정된 우선 순위를 변화시키는 훈련 함수 생성 장치.
  14. 제 13항에 있어서,
    상기 훈련 함수 계산부는 훈련 벡터들에 대응하는 평균제곱오차를 이용하여 상기 초기 훈련 함수를 계산하는 훈련 함수 생성 장치.
  15. 제 13항에 있어서,
    상기 루프 결정부는 상기 계산된 초기 훈련 함수가 미리 지정된 오검출 확률을 가질 때의 미검출 확률을 이용하여 상기 계산된 초기 훈련 함수의 분류 성능을 판단하는 훈련 함수 생성 장치.

KR1020120036754A 2012-04-09 2012-04-09 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법 KR20130114417A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120036754A KR20130114417A (ko) 2012-04-09 2012-04-09 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법
US13/620,319 US20130268467A1 (en) 2012-04-09 2012-09-14 Training function generating device, training function generating method, and feature vector classifying method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120036754A KR20130114417A (ko) 2012-04-09 2012-04-09 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법

Publications (1)

Publication Number Publication Date
KR20130114417A true KR20130114417A (ko) 2013-10-17

Family

ID=49293123

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120036754A KR20130114417A (ko) 2012-04-09 2012-04-09 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법

Country Status (2)

Country Link
US (1) US20130268467A1 (ko)
KR (1) KR20130114417A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8762299B1 (en) 2011-06-27 2014-06-24 Google Inc. Customized predictive analytical model training
US11609759B2 (en) * 2021-03-04 2023-03-21 Oracle International Corporation Language agnostic code classification

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7475048B2 (en) * 1998-05-01 2009-01-06 Health Discovery Corporation Pre-processed feature ranking for a support vector machine
US20040176950A1 (en) * 2003-03-04 2004-09-09 Docomo Communications Laboratories Usa, Inc. Methods and apparatuses for variable dimension vector quantization
EP1638463A4 (en) * 2003-07-01 2007-11-21 Cardiomag Imaging Inc USE OF MACHINE LEARNING FOR CLASSIFICATION OF MAGNETOCARDIOGRAMS
US7490071B2 (en) * 2003-08-29 2009-02-10 Oracle Corporation Support vector machines processing system
US7519567B2 (en) * 2005-10-31 2009-04-14 Hewlett-Packard Development Company, L.P. Enhanced classification of marginal instances
US8589151B2 (en) * 2006-06-21 2013-11-19 Harris Corporation Vocoder and associated method that transcodes between mixed excitation linear prediction (MELP) vocoders with different speech frame rates
US20090119242A1 (en) * 2007-10-31 2009-05-07 Miguel Vargas Martin System, Apparatus, and Method for Internet Content Detection
US8700550B1 (en) * 2007-11-30 2014-04-15 Intellectual Assets Llc Adaptive model training system and method
US8386401B2 (en) * 2008-09-10 2013-02-26 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data using a plurality of learning machines wherein the learning machine that optimizes a performance function is selected
US20120215560A1 (en) * 2010-07-21 2012-08-23 dbMotion Ltd. System and methods for facilitating computerized interactions with emrs
US8682814B2 (en) * 2010-12-14 2014-03-25 Symantec Corporation User interface and workflow for performing machine learning
US9922256B2 (en) * 2011-06-30 2018-03-20 Yale University Subject sensing in an environment

Also Published As

Publication number Publication date
US20130268467A1 (en) 2013-10-10

Similar Documents

Publication Publication Date Title
US11017220B2 (en) Classification model training method, server, and storage medium
US11455515B2 (en) Efficient black box adversarial attacks exploiting input data structure
US11138412B2 (en) Facial recognition method and apparatus
Tripathi et al. Lcdet: Low-complexity fully-convolutional neural networks for object detection in embedded systems
EP3633553A1 (en) Method, device and apparatus for training object detection model
Kawai et al. Improved malgan: Avoiding malware detector by leaning cleanware features
JP2017201526A (ja) ディープニューラルネットワークに基づく認識装置、トレーニング装置及び方法
BR112019008055A2 (pt) método implementado por computador, meio não transitório, legível por computador e sistema implementado por computador
Yan et al. Kapur’s entropy for underwater multilevel thresholding image segmentation based on whale optimization algorithm
US9613319B1 (en) Method and system for information retrieval effectiveness estimation in e-discovery
US20240177462A1 (en) Few-shot object detection method
CN111079780A (zh) 空间图卷积网络的训练方法、电子设备及存储介质
Smelyakov et al. The neural network technologies effectiveness for face detection
TWI781576B (zh) 資料增強策略的更新方法、設備及儲存介質
EP4343616A1 (en) Image classification method, model training method, device, storage medium, and computer program
KR101725121B1 (ko) 특징 벡터 분류 장치 및 방법
Mannor et al. The consistency of greedy algorithms for classification
Zandieh et al. Scaling up kernel ridge regression via locality sensitive hashing
US20180018538A1 (en) Feature transformation device, recognition device, feature transformation method and computer readable recording medium
US10621471B2 (en) Signal classification using sparse representation
KR20130067612A (ko) 특징 벡터 분류기 및 이를 이용하는 인식 장치
KR20130114417A (ko) 훈련 함수 생성 장치, 훈련 함수 생성 방법 및 그것을 이용한 특징 벡터 분류 방법
CN116266387A (zh) 基于重参数化残差结构和坐标注意力机制的yolov4的图像识别算法及系统
US11507782B2 (en) Method, device, and program product for determining model compression rate
CN115795355B (zh) 一种分类模型训练方法、装置及设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application