KR101905129B1 - 서포트 벡터 머신 기반 분류 방법 - Google Patents

서포트 벡터 머신 기반 분류 방법 Download PDF

Info

Publication number
KR101905129B1
KR101905129B1 KR1020160161797A KR20160161797A KR101905129B1 KR 101905129 B1 KR101905129 B1 KR 101905129B1 KR 1020160161797 A KR1020160161797 A KR 1020160161797A KR 20160161797 A KR20160161797 A KR 20160161797A KR 101905129 B1 KR101905129 B1 KR 101905129B1
Authority
KR
South Korea
Prior art keywords
classification
vector
model
weight
feature vector
Prior art date
Application number
KR1020160161797A
Other languages
English (en)
Other versions
KR20180062001A (ko
Inventor
최민국
정우영
권순
정희철
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020160161797A priority Critical patent/KR101905129B1/ko
Priority to US15/614,815 priority patent/US20180150766A1/en
Publication of KR20180062001A publication Critical patent/KR20180062001A/ko
Application granted granted Critical
Publication of KR101905129B1 publication Critical patent/KR101905129B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • G06K9/6269
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06K9/6256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N99/005

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 서포트 벡터 머신 기반 분류 방법과 관련한 것으로, 보다 상세하게는 적은 수의 학습 데이터에 효과적인 분류 방법에 관한 것이다.
본 발명에 따른 서포트 벡터 머신 기반 분류 방법은 특징 벡터의 기하학적 분포에 따른 가중치가 적용된 제1 분류 모델을 구축하는 단계와, 특징 벡터의 분류 가능도를 고려한 제2 분류 모델을 구축하는 단계 및 제1, 제2 분류 모델을 병합하는 듀얼 최적화(dual optimization)을 수행하는 단계를 포함하는 것을 특징으로 한다.

Description

서포트 벡터 머신 기반 분류 방법{CLASSIFICATION METHOD BASED ON SUPPORT VECTOR MACHINE}
본 발명은 서포트 벡터 머신 기반 분류 방법과 관련한 것으로, 보다 상세하게는 적은 수의 학습 데이터에 효과적인 분류 방법에 관한 것이다.
서포트 벡터 머신(SVM, Support Vector Machine)은 초평면을 이용하는 분류기 중 하나로서, 최대 마진 분류기 SVM은 positive 특징 벡터와 negative 특징 벡터간의 명확한 분류가 가능한 이점이 있다.
그런데, 이러한 SVM은 데이터셋이 충분히 큰 경우에 효과적이며, 적은 수의 트레이닝 샘플만이 사용 가능한 경우에는 이상점(outlier)에 의하여 영향을 크게 받게 되는 문제점이 있다.
본 발명은 전술한 문제점을 해결하기 위하여 제안된 것으로, 적은 수의 학습데이터에 효과적인 SVM 기반 분류 방법을 제안하며, 각 특징 벡터의 기하학적 분포에 따른 가중치를 부여하고, 각 특징 벡터가 갖는 분류 가능도를 이용하여 최종 초평면(hyperplane)을 구성함으로써, 적은 수의 데이터를 가지고도 효율적인 분류가 가능하도록 하는 분류 방법을 제안한다.
본 발명에 따른 서포트 벡터 머신 기반 분류 방법은 특징 벡터의 기하학적 분포에 따른 가중치가 적용된 제1 분류 모델을 구축하는 단계와, 특징 벡터의 분류 가능도를 고려한 제2 분류 모델을 구축하는 단계 및 제1, 제2 분류 모델을 병합하는 듀얼 최적화(dual optimization)을 수행하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 서포트 벡터 머신 기반 분류 방법은 종래 SVM 모델이 갖는 소프트 마진(soft margin)을 최대화하는 기준 이외에 입력 특징들의 구조적 형태를 반영함으로써 모델 성능을 향상시키고, 입력 특징 벡터 각각의 분류 역량 측정을 통해 분류 역량이 적은 특징 벡터에 대해 강한 페널티를 부과함으로써 잡음에 강건한 모델을 구축하는 것이 가능한 효과가 있다.
본 발명에 따르면 특징 벡터의 기하학적 분포에 따른 가중치가 적용된 분류 모델을 구축하고, 특징 벡터의 분류 가능도를 고려한 분류 모델을 구축하며, 두 분류 모델을 병합하는 듀얼 최적화(dual optimization)을 제공함으로써, 적은 데이터에서도 효율적인 SVM 모델을 구현하는 것이 가능한 효과가 있다.
본 발명의 효과는 이상에서 언급한 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 서포트 벡터 머신 기반 분류 방법을 나타내는 순서도이다.
도 2는 종래 기술에 따른 SVM 모델 및 본 발명의 실시예에 따른 SVM 모델을 비교한 도면이다.
도 3은 본 발명의 실시예에 따른 가중치 추출 및 분류 가능도 추출을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 파라미터 설정을 위한 실험 결과를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 MNIST 데이터 셋에 대한 분류 결과를 나타내는 도면이다.
본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 목적, 구성 및 효과를 용이하게 알려주기 위해 제공되는 것일 뿐으로서, 본 발명의 권리범위는 청구항의 기재에 의해 정의된다.
한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가됨을 배제하지 않는다.
도 1은 본 발명의 실시예에 따른 서포트 벡터 머신 기반 분류 방법을 나타내는 순서도이고, 도 2는 종래 기술에 따른 SVM 모델 및 본 발명의 실시예에 따른 SVM 모델을 비교한 도면이다.
본 발명의 실시예에 대하여 서술하기에 앞서, 당업자의 이해를 돕기 위하여 종래 기술에 따른 SVM 모델에 대하여 먼저 서술하기로 한다.
최대 마진 분류기 SVM은 마진을 최대로 하는 선형 결정경계를 찾는 분류기를 말한다. 그러나 전술한 바와 같이, 이러한 모델은 트레이닝 샘플의 수가 적은 경우 많은 이상점에 의하여 그 분류 신뢰성이 떨어지는 문제점이 있다.
약간의 오분류를 허용하도록 이러한 문제점을 해결하기 위하여 슬랙 변수를 가진 SVM과 커널법을 이용한 소프트 마진 SVM 등이 제안되었다.
본 발명의 실시예에 따른 서포트 벡터 머신 기반 분류 방법은 소프트 마진(soft margin)을 최대화하는 SVM의 RC-마진(reduced convex hulls-margin) 모델을 사용한다.
트레이닝 데이터의 n개의 아이템을 가정하면, 이진 분류기 학습을 위한 n개의 특징 벡터는 positive 클래스
Figure 112018022410844-pat00035
및 negative 클래스
Figure 112018022410844-pat00036
로 주어지고, n= n1 + n2가 되며, 하나의 특징 벡터
Figure 112018022410844-pat00037
는 p 크기를 갖는 열 벡터로 정의한다.
이 때, Ap 및 Bp는 각각 p차원의 positive 데이터 행렬 및 negative 데이터 행렬이다. A는 모든 positive example을 포함하는 행렬로
Figure 112018022410844-pat00038
가 하나의 샘플 데이터일 때
Figure 112018022410844-pat00039
으로 정의되며, B는 모든 negative example을 포함하는 행렬로
Figure 112018022410844-pat00040
가 하나의 샘플 데이터일 때
Figure 112018022410844-pat00041
으로 정의된다.
이 때, 소프트 마진 분류를 위한 두 클래스의 RCH(reduced convex hulls) 간 최단 거리를 나누는 초평면의 primal 최적화(optimization)은 아래 [수학식 1]과 같이 정의된다.
삭제
Figure 112018022410844-pat00005

T는행렬에 대한 transpose 연산(
Figure 112018022410844-pat00042
의 경우 벡터
Figure 112018022410844-pat00043
의 transpose를 의미)을 의미하고, 이 때, k와 l은 초평면(hyperplane)의 오프셋 값으로,
Figure 112018022410844-pat00044
를 만족하며,
Figure 112018022410844-pat00045
Figure 112018022410844-pat00046
는 소프트 마진 제공하기 위한 슬랙 변수이다.
W는 SVM에서 선형 분류를 위한 hyper-plane parameter로서, SVM을 학습 시키는 것은 분류 정확도를 최대화하는 최적의 W를 찾는 것으로 볼 수 있다.
ξ는 positive example의 soft margin 허용한 hyper plane을 최적화하기 위한 slack variable로 positive sample 데이터 포인트의 error 허용 정도를 의미하고, η은 negative example의 soft margin 허용한 hyper plane을 최적화하기 위한 slack variable로 negative sample 데이터 포인트의 error 허용 정도를 의미한다.
삭제
e는 모든 원소를 1로 갖는 열 벡터를 의미하고, C는 convex hull의 축소를 제어하기 위한 조절(regularization) 파라미터이다.
이때, 유의미한 C의 범위(valid range)는 일반적으로 M=min(n1, n2) 일때, 1/M≤C≤1로 주어진다.
이하에서는 S100 단계인 RC 마진 SVM에 대한 가중치 모델(제1 분류 모델)을 구축하는 단계에 대하여 상술한다.
본 발명의 실시예에 따르면, 주어진 특징 벡터에 대한 강건한 오분류 패널티(misclassification penalty)를 부여하기 위해, 트레이닝 샘플인 각 특징 벡터의 기하학적 위치 및 분포를 통해 가중치를 획득한다.
기하적 분포 기반의 패널티는 이상점(outlier)에 대해 민감하게 반응할 수 있기 때문에, 제한된 트레이닝 데이터에서 더 효과적인 초평면을 구성하는 것이 가능하다.
가중치 벡터를 ρy 로 정의하고, 가중치 ρ( y,,i ) 는 클래스 y에 속한 i번째 특징 벡터에 대하여 부여하며, RC-margin 기반의 가중치 모델의 primal 최적화는 아래 [수학식 2]와 같이 정의된다.
Figure 112016117628264-pat00009
이때,
Figure 112018022410844-pat00047
Figure 112018022410844-pat00048
는 가중치 벡터(weight vector)이며, 각각 정규화 조건(normalization condition)
Figure 112018022410844-pat00049
Figure 112018022410844-pat00050
을 만족한다.
조절 파라미터(weighting parameter) D는 RC-margin 경우와 같이 1/M≤D≤1의 값을 갖는다.
본 발명의 실시예에 따르면 특징벡터에 대한 가중치 벡터 를 추출하기 위해 각 특징벡터에 대한 정규화된 최근린거리를 가중치로 추출한다.
클래스 에 속한 번째 특징벡터에 대한 ρ1,i 는 아래 [수학식 3]과 같이, 가장 근접한 위치에 있는hw개의 근접 특징 벡터들의 평균 L2 거리로 연산된다.
Figure 112016117628264-pat00014
Figure 112018022410844-pat00051
는 xi와 xj 두 특징 벡터 사이에 L2 거리를 의미한다. ρ2,i 에 대해서도 유사한 방식으로 가중치를 추출하게 되며, 도 3의 (a)는 hw=5일 때 가중치 추출의 예시를 도시한다.
이하에서는 S200 단계인 분류 가능도 기반 RC-마진 모델(제2 분류 모델) 구축 단계에 대하여 상술한다.
분류 가능도(classification uncertainty)는 특정 특징벡터가 갖는 대립되는 클래스에 대한 근사된 분류 정확도로 정의된다.
분류 가능도를 모델에 반영하는 것은 각 특징벡터가 실제 분류 과정에서 기여하는 기여도에 따라, 서로 다른 가중치를 부여한다.
클래스 y에 대한 특징 벡터에 대한 분류 가능도 벡터를 τy 라 할 때 i 번째 특징벡터에 대한 분류 가능도는 τ(y,i) 로 정의된다.
이때 분류 가능도를 패널티로 갖는 RC-마진 모델은 아래 [수학식 4]와 같다.
Figure 112016117628264-pat00016
이때 τ1과 τ2 는 분류 가능도 벡터(classification uncertainty vector)를 의미하고 각각은
Figure 112018022410844-pat00052
Figure 112018022410844-pat00053
.의 dimension을 가진다.
조절 파라미터 E(weighting parameter)는 convex hull의 크기를 제어하며, 1/M≤E≤1의 범위를 가진다.
분류 가능도 τ2(y,i)는 특정한 특징 벡터의 분류 정확도의 정규화된 값으로 주어진다.
특정한 클래스를 갖는 특징벡터 x에 대해 최근린거리 갖는 hu개의 특징 벡터 집합을 가지고 반대 클래스에 대한 지역 선형 분류기(local linear classifier)는
Figure 112018022410844-pat00019
를 구축하고, 구축된 지역 분류기를 통해 분류 가능도를 측정하게 된다.
Figure 112018022410844-pat00054
는 각 특징 벡터의 classification uncertainty를 측정하기 위한 선형 분류기로
Figure 112018022410844-pat00055
로 정의되며, 선택된 특정한
Figure 112018022410844-pat00056
개의 근접한 특징벡터로부터 얻어진 linear classifier로 정의된다.
이때
Figure 112018022410844-pat00057
는 선형 분류기의 hyperplane을 의미하며,
Figure 112018022410844-pat00058
Figure 112018022410844-pat00059
번째 특징 벡터
Figure 112018022410844-pat00060
와 주변
Figure 112018022410844-pat00061
개의 근접한 특징벡터로부터 얻어진 데이터 그룹이며
Figure 112018022410844-pat00062
는 선형 분류기의 bias term이다.
Figure 112018022410844-pat00063
는 특징벡터
Figure 112018022410844-pat00064
입력으로부터 학습된 선형 분류기를 의미한다.
i번째 특징 벡터에 대하여 분류기는 최근린거리 갖는 hu개의 특징 벡터에 대한 학습을 수행하고, i번째 특징 벡터의 분류 가능도는 다음 [수학식 5]와 같이 추정된다.
Figure 112016117628264-pat00020
분류 가능도 추정을 위한 반대 클래스의 분류 가능도 벡터도 유사한 방식으로 측정하게 되며, 각 가능도 벡터 τ는 0와 1사이의 값으로 정규화되며, 도 3의 (b)는 hu=5의 예시를 도시한다.
이하에서는 S300 단계인 제1 분류 모델 및 제2 분류 모델에 대한 병합 모델을 최적화하는 단계에 대하여 상술한다.
전술한 제1 분류 모델 및 제2 분류 모델의 장점을 동시에 얻기 위해, 본 발명의 실시예에 따른 S300 단계는 최종적으로 두 모델의 primal 최적화 수식 [수학식 2] 및 [수학식 4]를 하나의 수식으로 [수학식 6]과 같이 유도한다.
Figure 112016117628264-pat00021
병합된 조절 파라미터(weighting parameter) Q는 convex hull의 크기를 제어하며, 유효한 범위로서 1/M≤Q≤1의 범위를 가진다.
주어진 [수학식 6]에 대한 최종 primal 최적화 문제의 해를 얻기 위해, 각 최적화 변수에 대한 non-negative라그랑지안 멀티플라이어 벡터
Figure 112018022410844-pat00065
를 도입하여 [수학식 7]과 같이 각각의 편미분을 수행한다.
Figure 112016117628264-pat00023
주어진 수식에 편미분 결과
Figure 112018022410844-pat00066
,
Figure 112018022410844-pat00067
,
Figure 112018022410844-pat00068
를 대입하여 전개하면, 단순화된 dual 형태(form)의 최적화 함수를 얻을 수 있으며, 주어진 함수는 패널티가 부과된 convex hull의 최단거리를 찾는 문제로 정의된다.
이때, e는 일벡터로 모든 element가 1로 이루어진 벡터를 의미한다.
Figure 112018022410844-pat00069
에 대하여, 수식의 dual공식을 최적화하는 과정을 살펴보면, 함수
Figure 112018022410844-pat00070
에 대해 Lagrangian multiplier를 도입하고 multiplier에 대한 constrain을 활용하여 constrained optimization의 simplest form을 도출한다.
이 때,
Figure 112018022410844-pat00071
또는
Figure 112018022410844-pat00072
는 주어진 최적화 공식을 슬랙 변수
Figure 112018022410844-pat00073
Figure 112018022410844-pat00074
에 대해 편미분 하는 과정에서 얻어진다.
Figure 112018022410844-pat00075
수식이 주어졌을 때
Figure 112018022410844-pat00076
를 연산하면, 실제
Figure 112018022410844-pat00077
와 관련 없는 변수들은 모두 탈락하고,
Figure 112018022410844-pat00078
로 주어지게 된다. 원하는 해는
Figure 112018022410844-pat00079
일 때 이므로,
Figure 112018022410844-pat00080
으로 주어지게 되고, 단순한 형태의 전개를 위해 Largrangian multiplier
Figure 112018022410844-pat00081
에 대해 서술하면
Figure 112018022410844-pat00082
으로 얻어지게 된다.
같은 방법으로 수식
Figure 112018022410844-pat00083
에 대해 슬랙 변수 η에 대한 편미분
Figure 112018022410844-pat00084
를 계산하면
Figure 112018022410844-pat00085
의 예와 같이 동일한 계산 방식으로
Figure 112018022410844-pat00086
을 얻을 수 있다.
Figure 112016117628264-pat00025
Figure 112018022410844-pat00087
Figure 112018022410844-pat00088
는 특징 벡터(feature vector)들의 convex hull을 의미하고, 조절 파라미터 Q는 가중치된 계수
Figure 112018022410844-pat00089
Figure 112018022410844-pat00090
의 상한(upper bound)으로 convex hull을 제어하게 된다.
도 4 및 도 5는 본 발명의 실시예에 따른 실험 결과를 나타내는 도면이다.
도 4의 (a)는 파라미터 Q가 0.9로 고정된 경우 hw 및 hu를 도시하며, 도 4의 (b)는 hw=9, hu=15인 경우 파라미터 Q의 변동을 나타낸다.
도 5는 digit recognition의 결과를 나타내는 도면으로, (a)는 서로 다른 학습 데이터 수에 따른 SVM, weight, uncertainty의 SVM 모델과 본 발명의 실시예에 따른 분류 모델을 이용한 분류 결과를 나타내는 도면이고, (b)는 200개의 학습 데이터를 분류한 결과를 나타낸다.
본 발명의 실시예에 따르면 적은 수의 학습 데이터인 경우 그 성능이 훨씬 높음을 확인할 수 있었다.
이제까지 본 발명의 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (6)

  1. (a) 입력된 특징 벡터에 대한 정규화된 최근린 거리를 이용하여 추출한 가중치를 적용하여 제1 분류 모델을 구축하는 단계;
    (b) 상기 특징 벡터가 실제 분류 과정에서 기여하는 기여도에 따라 서로 다른 가중치를 부여하여, 분류 가능도가 반영된 제2 분류 모델을 구축하는 단계; 및
    (c) 상기 제1 분류 모델 및 제2 분류 모델을 병합하여 듀얼 최적화를 수행하는 단계를 포함하고,
    상기 (c) 단계는 RC 마진 SVM에 대한 가중치 모델인 상기 제1 분류 모델에서의 기하학적 분포에 따른 페널티와, 상기 분류 가능도 기반 RC 마진 모델인 제2 분류 모델에서의 분류 역량에 따른 페널티를 이용하여 듀얼 최적화 함수인 하기 [수학식 6]을 도출하며, 상기 듀얼 최적화 함수에 따른 해를 제공하여 분류 모델을 구축하고, 상기 듀얼 최적화 함수에 대해 논-네거티브 라그랑지안 멀티플라이어 벡터를 도입하여 각각의 편미분을 수행하고, 편미분 결과를 대입하여 단순화된 듀얼 형태의 최적화 함수를 얻고, 패널티가 부과된 convex hull의 최단 거리를 찾는 것
    을 특징으로 하는 포함하는 서포트 벡터 머신 기반 분류 방법.
    [수학식 6]
    Figure 112018502137269-pat00091

    T: 행렬에 대한 transpose 연산
    W: SVM에서 선형 분류를 위한 hyper-plane parameter.
    A: 모든 positive example을 포함하는 행렬
    B: 모든 negative example을 포함하는 행렬
    ξ: positive example의 soft margin 허용한 hyper plane을 최적화하기 위한 슬랙변수
    η: negative example의 soft margin 허용한 hyper plane을 최적화하기 위한 슬랙 변수
    Q: 병합된 조절 파라미터
    e: 모든 원소를 1로 갖는 열 벡터
    ρ : 가중치 벡터
    τ : 분류 가능도 벡터 k, l : 초평면(hyperplane)의 오프셋 값
  2. 제1항에 있어서,
    상기 (a) 단계는 소프트 마진을 최대화하는 기준 이외에 상기 입력된 특징 벡터의 구조적 형태를 반영하며, 기하학적 위치 및 분포를 이용하여 상기 가중치를 획득하는 것
    인 서포트 벡터 머신 기반 분류 방법.
  3. 제1항에 있어서,
    상기 (a) 단계는 정규화 조건을 만족하는 가중치 벡터를 획득하며, 제1 조절 파라미터를 이용하고, 상기 특징 벡터에 대한 정규화된 최근린거리를 가중치로 추출하는 것
    인 서포트 벡터 머신 기반 분류 방법.
  4. 제1항에 있어서,
    상기 (b) 단계는 상기 특징 벡터가 분류 과정에서 기여하는 기여도에 따라 서로 다른 가중치를 부여하는 상기 분류 가능도를 고려하며, convex hull의 크기를 제어하는 제2 조절 파라미터를 이용하고, 기설정된 개수의 특징 벡터 집합을 이용하여 반대 클래스에 대한 지역 선형 분류기를 구축하여 상기 분류 가능도를 측정하는 것
    인 서포트 벡터 머신 기반 분류 방법.
  5. 제1항에 있어서,
    상기 (c) 단계는 convex hull의 크기를 제어하는 병합된 제3 조절 파라미터를 이용하고, 넌-네거티브 라그랑지안 멀티플라이어를 통해 듀얼 최적화를 수행하는 것
    인 서포트 벡터 머신 기반 분류 방법.
  6. 삭제
KR1020160161797A 2016-11-30 2016-11-30 서포트 벡터 머신 기반 분류 방법 KR101905129B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160161797A KR101905129B1 (ko) 2016-11-30 2016-11-30 서포트 벡터 머신 기반 분류 방법
US15/614,815 US20180150766A1 (en) 2016-11-30 2017-06-06 Classification method based on support vector machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160161797A KR101905129B1 (ko) 2016-11-30 2016-11-30 서포트 벡터 머신 기반 분류 방법

Publications (2)

Publication Number Publication Date
KR20180062001A KR20180062001A (ko) 2018-06-08
KR101905129B1 true KR101905129B1 (ko) 2018-11-28

Family

ID=62190249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160161797A KR101905129B1 (ko) 2016-11-30 2016-11-30 서포트 벡터 머신 기반 분류 방법

Country Status (2)

Country Link
US (1) US20180150766A1 (ko)
KR (1) KR101905129B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699184B2 (en) * 2016-12-29 2020-06-30 Facebook, Inc. Updating predictions for a deep-learning model
CN109118025A (zh) * 2018-09-25 2019-01-01 新智数字科技有限公司 一种电力系统预测的方法和装置
EP3789910A1 (en) * 2019-09-09 2021-03-10 Robert Bosch GmbH Device and method for training a polyhedral classifier
CN111767803B (zh) * 2020-06-08 2022-02-08 北京理工大学 合成极窄脉冲雷达抗目标姿态敏感的鉴别方法
CN112598340B (zh) * 2021-03-04 2021-06-22 成都飞机工业(集团)有限责任公司 一种基于不确定性支持向量机的数据模型比较方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015522249A (ja) 2012-04-04 2015-08-06 ベーイーオー・メリュー 分光分析および構造化分類による微生物の同定
KR101620078B1 (ko) 2015-09-15 2016-05-11 주식회사 위즈벤처스 문장의 맞춤법 오류에 강한 감정 분류 시스템 및 감정 분류 방법
JP2016531343A (ja) 2013-06-28 2016-10-06 ディー−ウェイブ システムズ,インコーポレイテッド データの量子処理のためのシステムおよび方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015522249A (ja) 2012-04-04 2015-08-06 ベーイーオー・メリュー 分光分析および構造化分類による微生物の同定
JP2016531343A (ja) 2013-06-28 2016-10-06 ディー−ウェイブ システムズ,インコーポレイテッド データの量子処理のためのシステムおよび方法
KR101620078B1 (ko) 2015-09-15 2016-05-11 주식회사 위즈벤처스 문장의 맞춤법 오류에 강한 감정 분류 시스템 및 감정 분류 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
최민국 외 2명, "특징 벡터의 effectiveness 요소 기반의 가중치 SVM 분류기 연구", 한국차세대컴퓨팅학회 논문지, vol. 9, no. 1, pp. 63~73, 2013년 2월.*

Also Published As

Publication number Publication date
KR20180062001A (ko) 2018-06-08
US20180150766A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
KR101905129B1 (ko) 서포트 벡터 머신 기반 분류 방법
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
JP6781415B2 (ja) ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置
CN108647583B (zh) 一种基于多目标学习的人脸识别算法训练方法
CN106897746B (zh) 数据分类模型训练方法和装置
JP6192010B2 (ja) 重み設定装置および方法
US7724961B2 (en) Method for classifying data using an analytic manifold
CN110799995A (zh) 数据识别器训练方法、数据识别器训练装置、程序及训练方法
JP6111297B2 (ja) 方法、装置、およびプログラム
CN112085055B (zh) 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法
US11403878B2 (en) Apparatus and method with user verification
JP2021082269A (ja) 分類モデルを訓練する方法及び装置並びに分類方法
CN112418387A (zh) 量子数据处理方法及设备
JP2005202932A (ja) データを複数のクラスに分類する方法
CN106599864A (zh) 一种基于极值理论的深度人脸识别方法
CN108154186B (zh) 一种模式识别方法和装置
Núnez et al. Hybrid-fuzzy modeling and identification
JP7024881B2 (ja) パターン認識装置およびパターン認識方法
JP6955233B2 (ja) 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム
CN111967483A (zh) 确定分类器、确定生成器、识别命令的方法及设备
CN111639688A (zh) 一种基于线性核svm的物联网智能模型的局部解释方法
KR101590896B1 (ko) 일반화 성능을 갖는 심화학습 장치 및 방법, 그 방법을 수행하기 위한 기록 매체 및 장치
CN107657223B (zh) 一种基于快速处理多距离度量学习的人脸认证方法
CN105825205A (zh) 一种协作稀疏表示自适应的快速人脸识别方法
Fatkhannudin et al. Gender classification using fisherface and support vector machine on face image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)