KR101901307B1 - 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체 - Google Patents

가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체 Download PDF

Info

Publication number
KR101901307B1
KR101901307B1 KR1020170174400A KR20170174400A KR101901307B1 KR 101901307 B1 KR101901307 B1 KR 101901307B1 KR 1020170174400 A KR1020170174400 A KR 1020170174400A KR 20170174400 A KR20170174400 A KR 20170174400A KR 101901307 B1 KR101901307 B1 KR 101901307B1
Authority
KR
South Korea
Prior art keywords
fuzzy membership
weighted fuzzy
input data
membership function
output
Prior art date
Application number
KR1020170174400A
Other languages
English (en)
Inventor
임준식
신병주
왕보현
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020170174400A priority Critical patent/KR101901307B1/ko
Application granted granted Critical
Publication of KR101901307B1 publication Critical patent/KR101901307B1/ko

Links

Images

Classifications

    • G06N3/0436
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법은 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력받는 입력 데이터 입력단계; 상기 입력 데이터들의 레코드들의 클래스와 상기 입력 데이터 입력단계의 결과로 출력된 출력 데이터들의 레코드들의 클래스들을 비교하여, 상기 출력 데이터들을 복수의 그룹들로 분류하는 분류단계; 상기 분류된 복수의 그룹들에 속한 출력 데이터들을 그룹별로 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망 각각에 입력하는 그룹 입력단계; 및 상기 그룹 입력단계에서의 입력에 따라 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들의 레코드들에 대한 클래스들의 정확도를 산출하는 산출단계를 포함한다.

Description

가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체 {METHOD, APPARATUS AND COMPUTER-READABLE RECORDING MEDIUM FOR CLASSIFYING CLASSES USING DEEP NEURAL NETWORK WITH WEIGHTED FUZZY MEMBERSHIP FUNCTION}
본 발명은 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체에 관한 것으로, 가중 퍼지 소속함수 기반 심층 신경망(Neural Network with Weighted Fuzzy Membership Function, NEWFM)을 이용하여 입력 데이터들의 클래스들을 분류하고, 기설정된 조건을 만족할 때까지 입력 데이터들의 클래스 분류를 반복 수행하는 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체에 관한 것이다.
신경망(Neural Network)은 인간이 뇌를 통해 문제를 처리하는 방법과 비슷한 방법으로 문제를 해결하기 위해 컴퓨터에서 채택하고 있는 구조로서, 수학적 모델로서의 뉴런이 상호 연결되어 네트워크를 형성할 때 이를 신경망 또는 인공 신경망(Artificial Neural Network)이라 한다.
신경망은 각 뉴런이 독립적으로 동작하는 처리기의 역할을 하기 때문에 병렬성(Parallelism)이 뛰어나고, 많은 연결선에 정보가 분산되어 있기 때문에 몇몇 뉴런에 문제가 발생하더라도 전체 시스템에 큰 영향을 주지 않으므로 결함 허용(fault tolerance) 능력이 있으며, 주어진 환경에 대한 학습 능력이 있다.
이와 같은 특성 때문에 인공 지능 분야의 문제 해결에 이용되고 있으며, 문자 인식, 음성 인식, 분류, 진단, 예측 등 여러 분야에서 이용되고 있다.
종래에는 가중 퍼지 소속함수 기반 심층 신경망을 이용한 음성 감정 인식 모델 생성 방법이 개시되었다. 종래의 음성 감정 인식 모델 생성 방법은 입력 신호로부터 특징(feature)을 추출하고, 학습한 결과를 이용하여 타카기-수게노 역퍼지 값을 산출한 후, 이를 사분면의 2차원 감정 공간에 표시함으로써, 사람의 음성으로부터 감정을 신속하고 정확하게 분류하는 것이 가능한 특징이 있다.
다만, 종래의 클래스 분류 모델 생성 방법은 추출한 특징을 가중 퍼지 소속함수 기반 심층 신경망에 입력하여 산출된 타카기-수게노 역퍼지 값을 이용함으로써 클래스를 분류하고 있을 뿐, 산출된 타카기-수게노 역퍼지 값을 통해 가중 퍼지 소속함수 기반 심층 신경망을 반복적으로 학습시키는 구성은 개시하고 있지 않아, 가중 퍼지 소속함수 기반 심층 신경망을 통한 클래스 분류의 정확도가 떨어지는 문제점이 있다.
KR 10-1330268 B1
본 발명은 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력하여 산출된 타카기-수게노 역퍼지 값을 이용하여, 가중 퍼지 소속함수 기반 심층 신경망을 반복적으로 학습시킴으로써, 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류의 신뢰도 및 정확도를 향상시킨 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체에 관한 것이다.
본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법은 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력받는 입력 데이터 입력단계; 상기 입력 데이터들의 레코드들의 클래스와 상기 입력 데이터 입력단계의 결과로 출력된 출력 데이터들의 레코드들의 클래스들을 비교하여, 상기 출력 데이터들을 복수의 그룹들로 분류하는 분류단계; 상기 분류된 복수의 그룹들에 속한 출력 데이터들을 그룹별로 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망 각각에 입력하는 그룹 입력단계; 및 상기 그룹 입력단계에서의 입력에 따라 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들의 레코드들에 대한 클래스들의 정확도를 산출하는 산출단계를 포함할 수 있다.
상기 산출단계 이후, 상기 산출된 정확도가 기설정된 조건을 만족하는 경우, 상기 그룹 입력단계에서의 입력에 따라 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 출력 데이터들을 상기 입력 데이터들로하여 상기 입력 데이터 입력단계 내지 산출단계를 수행하는 반복수행단계를 더 포함할 수 있다.
상기 산출단계 이후, 상기 입력 데이터 입력단계에서의 입력에 따라 상기 가중 퍼지 소속함수 기반 심층 신경망에서 출력된 가중 퍼지 소속함수들 및 상기 그룹들에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 상기 가중 퍼지 소속함수들을 출력하는 함수출력단계를 더 포함할 수 있다.
상기 기설정된 조건은, 상기 산출단계에서 정확도를 산출하기 이전에 상기 정확도가 산출된 적이 없는 경우 또는 상기 반복수행단계의 결과로 산출된 정확도가 직전에 산출된 정확도를 초과한 경우이다.
상기 분류단계는, 상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 상이한 출력 데이터들로 구성된 제1 그룹 및 상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 동일한 출력 데이터들로 구성된 제2 그룹으로 상기 출력 데이터들을 분류하는 분류단계를 포함할 수 있다.
상기 출력 데이터들은, 상기 입력 데이터들에 대응되는 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values)이다.
상기 반복수행단계는, 상기 복수의 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망들에 입력시킨 결과로 출력된 타카기-수게노 역 퍼지값들을 입력 데이터들로 상기 입력 데이터 입력단계 내지 산출단계를 수행하는 반복수행단계를 포함하며, 상기 타카기-수게노 역 퍼지값들은, 상기 복수의 그룹들에 포함된 출력 데이터들에 대응되는 값들이다.
상기 산출하는 단계는, 상기 입력 데이터들의 레코드들의 클래스들과 상기 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들의 레코드들에 대한 클래스들을 비교하여 상기 입력 데이터들의 레코드들에 대한 클래스들의 정확도를 산출하는 산출단계를 포함할 수 있다.
본 발명의 다른 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치는 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력받고, 상기 입력 데이터들의 레코드들의 클래스와 상기 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력시킨 결과로 출력된 출력 데이터들의 레코드들의 클래스들을 비교하여, 상기 출력 데이터들을 복수의 그룹들로 분류하고, 상기 분류된 복수의 그룹들에 속한 출력 데이터들을 그룹별로 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에 입력하고, 상기 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력시킨 결과로 출력된 가중 퍼지 소속함수들 각각에서 출력된 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들에 대한 클래스들의 정확도를 산출할 수 있다.
상기 산출된 정확도가 기설정된 조건을 만족하는 경우, 상기 복수의 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력한 결과로 출력된 출력 데이터들을 상기 입력 데이터들로하여 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력할 수 있다.
상기 입력 데이터들의 입력에 따라 상기 가중 퍼지 소속함수 기반 심층 신경망에서 출력된 가중 퍼지 소속함수들 및 상기 그룹들에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 상기 가중 퍼지 소속함수들을 출력할 수 있다.
상기 기설정된 조건은, 상기 제어부가 상기 입력 데이터들의 레코드들에 대한 클래스 분류의 정확도를 산출하기 이전에 상기 정확도가 산출된 적이 없는 경우 또는 상기 정확도가 직전에 산출된 정확도를 초과한 경우이다.
상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 상이한 출력 데이터들로 구성된 제1 그룹 및 상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 동일한 출력 데이터들로 구성된 제2 그룹으로 상기 출력 데이터들을 분류할 수 있다.
상기 출력 데이터들은, 상기 입력 데이터들에 대응되는 타카기-수게노 역 퍼지값들이다.
상기 복수의 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력시킨 결과로 출력된 타카기-수게노 역 퍼지값들을 상기 입력 데이터들로써 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력하며, 상기 타카기-수게노 역 퍼지값들은, 상기 복수의 그룹들에 포함된 출력 데이터들에 대응되는 값들이다.
상기 입력 데이터들의 레코드들의 클래스들과 상기 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들의 레코드들에 대한 클래스들을 비교하여 상기 입력 데이터들에 대한 클래스들의 정확도를 산출할 수 있다.
본 발명의 또 다른 실시예에 따르면, 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법을 수행하기 위한 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다.
본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체에 따르면, 가중 퍼지 소속함수 기반 심층 신경망을 반복적으로 학습시킴으로써 클래스 분류의 신뢰도 및 정확도를 향상시키는 효과가 있다.
또한, 학습 과정에서 출력된 타카기-수게노 역퍼지 값들의 클래스들과 입력 데이터들의 클래스를 비교하고, 비교 결과에 따라 타카기-수게노 역퍼지 값들을 그룹화한 후 학습 과정을 반복함으로써, 클래스 분류의 정확도를 향상시키는 효과가 있다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 순서도를 간략히 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 흐름도를 간략히 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 예시를 도시한 도면이다.
본 명세서에서 제1 및/또는 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 즉, 구성요소들을 상기 용어들에 의해 한정하고자 함이 아니다.
본 명세서에서 '포함하다' 라는 표현으로 언급되는 구성요소, 특징, 및 단계는 해당 구성요소, 특징 및 단계가 존재함을 의미하며, 하나 이상의 다른 구성요소, 특징, 단계 및 이와 동등한 것을 배제하고자 함이 아니다.
본 명세서에서 단수형으로 특정되어 언급되지 아니하는 한, 복수의 형태를 포함한다. 즉, 본 명세서에서 언급된 구성요소 등은 하나 이상의 다른 구성요소 등의 존재나 추가를 의미할 수 있다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함하여, 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(통상의 기술자)에 의하여 일반적으로 이해되는 것과 동일한 의미이다.
즉, 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체에 대해 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 순서도를 간략히 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법은 입력 데이터 입력단계(S101), 분류단계(S103), 그룹 입력단계(S105), 산출단계(S107), 함수출력단계(S109) 및 반복수행단계(S111)를 포함할 수 있다.
본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법은 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치에 의해서 수행될 수 있다.
입력 데이터 입력단계(S101)는 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력받는 단계이다.
가중 퍼지 소속함수 기반 심층 신경망(Neural Network with Weighted Fuzzy Membership Function, NEWFM)은 특징 추출이 가능한 신경망으로서, n개의 입력 데이터들을 입력받으며, 입력 데이터들에 대한 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values), 타카기-수게노 역 퍼지값들의 클래스를 분류한 결과 및 가중 퍼지 소속함수를 출력한다.
예컨대, 입력 데이터들 I1 내지 I10이 가중 퍼지 소속함수 기반 심층 신경망에 입력되면, 가중 퍼지 소속함수 기반 심층 신경망의 출력 결과로 분류한 I1 내지 I10의 클래스, I1 내지 I10에 대한 타카기-수게노 역 퍼지값들 및 가중 퍼지 소속함수를 출력한다.
분류단계(S103)는 입력 데이터들의 레코드들의 클래스와 입력 데이터 입력단계(S101)의 결과로 출력된 출력 데이터들의 레코드들의 클래스들을 비교하여, 출력 데이터들을 복수의 그룹들로 분류하는 단계이다.
출력 데이터들 즉, 출력된 타카기-수게노 퍼지값들에 대해 분류된 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 일치하는지 여부에 따라서 출력 데이터들이 제1 및 제2 그룹으로 분류될 수 있다.
여기서, 출력 데이터들은 입력 데이터들에 대응되는 타카기-수게노 역 퍼지값들이며, 출력 데이터들의 레코드들의 클래스는 가중 퍼지 소속함수 기반 심층 신경망의 학습과정에서 입력 데이터들의 레코드들에 기반하여 출력된 타카기-수게노 역 퍼지값들의 클래스를 분류한 결과이다.
예컨대, 입력 데이터들 I1 내지 I10 중 I1 및 I10의 레코드들의 클래스가 출력 데이터들 중 I1 및 I10에 대응되는 출력 데이터들의 레코드들의 클래스와 상이한 경우, I1 및 I10은 제1 그룹으로 분류되고, I2 내지 I9는 제2 그룹으로 분류될 수 있다.
즉, 제1 그룹은 출력 데이터들의 레코드들의 클래스들 중 레코드의 클래스가 대응되는 입력 데이터들의 각 레코드의 클래스와 상이한 그룹이고, 제2 그룹은 출력 데이터들의 레코드들 중 레코드의 클래스가 대응되는 입력 데이터들의 레코드의 클래스와 동일한 그룹일 수 있다.
그룹 입력단계(S105)는 분류된 복수의 그룹들에 포함된 출력 데이터들을 그룹별로 각각 복수의 가중 퍼지 소속함수 기반 심층 신경망들에 입력하는 단계이다.
복수의 그룹들에 포함된 출력 데이터들을 그룹별로 각각 가중 퍼지 소속함수 기반 심층 신경망들에 입력함으로써, 각 그룹에 대응되는 가중 퍼지 소속함수들이 출력될 수 있다.
그룹 입력단계(S105)에서 제1 및 제2 그룹에 포함된 출력 데이터들을 입력시키는 가중 퍼지 소속함수 기반 심층 신경망은 입력 데이터들 입력단계(S101)에서 입력 데이터들을 입력시키는 가중 퍼지 소속함수 기반 심층 신경망과 동일하지만, 가중 퍼지 소속함수 기반 심층 신경망에서 출력되는 결과들은 가중 퍼지 소속함수 기반 심층 신경망에 입력되는 데이터들은 입력 데이터들 및 출력 데이터들의 그룹들로 상이하기 때문에 동일하지 않다.
산출단계(S107)는 그룹 입력단계(S105)의 결과로 출력된 가중 퍼지 소속함수들 각각에 입력 데이터들을 대입시켜 얻은 입력 데이터들에 대한 클래스들의 정확도를 산출하는 단계이다.
그룹 입력단계(S105)의 결과로 제1 및 제2 그룹 각각에 대한 가중 퍼지 소속함수들이 출력되고, 출력된 가중 퍼지 소속함수들에 입력 데이터 입력단계(S101)의 입력 데이터들을 대입시킴으로써, 입력 데이터들에 대한 클래스들이 분류될 수 있다.
분류된 입력 데이터들의 레코드들의 클래스들과 입력 데이터들의 실제 클래스들을 비교함으로써 분류된 입력 데이터들의 레코드들에 대한 클래스들의 정확도가 산출될 수 있다.
예컨대, 입력 데이터들 I1 내지 I10의 레코드들의 클래스들과 그룹 입력단계(S105)의 결과로 출력된 I1 내지 I10에 대해 분류된 레코드들의 클래스들을 비교한 결과가 제1차 정확도로 산출될 수 있다.
함수출력단계(S109)는 입력 데이터 입력단계(S101) 및 그룹 입력단계(S105)의 결과로써 출력된 가중 퍼지 소속함수들을 출력하는 단계이다.
즉, 함수출력단계(S109)는 산출단계(S107) 이후, 입력 데이터 입력단계(S101)에서의 입력에 따라 가중 퍼지 소속함수 기반 심층 신경망에서 출력된 가중 퍼지 소속함수 및 그룹 입력단계(S105)에서의 그룹들에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 가중 퍼지 소속함수들을 출력하는 단계이다.
예컨대, 출력된 각 가중 퍼지 소속함수는 새로운 데이터들이 입력되었을 경우, 각 단계별 함수로 이용되어 새로운 데이터들의 레코드들의 클래스를 높은 정확도로 분류할 수 있다.
반복수행단계(S109)의 결과로 산출된 정확도, 즉, 가장 마지막으로 산출된 정확도가 직전에 산출된 정확도와 동일한 경우에는 가장 마지막으로 산출된 정확도가 입력 데이터들에 대한 최종 정확도이므로, 이 최종 정확도가 출력될 수 있다.
반복수행단계(S111)는 산출단계(S107)에서 산출된 정확도가 기설정된 조건을 만족하는 경우, 그룹 입력단계(S105)의 결과로 출력된 출력 데이터들을 입력 데이터들로써 가중 퍼지 소속함수 기반 심층 신경망에 입력하여, 입력 데이터 입력단계(S101) 내지 함수출력단계(S109)를 반복수행하는 단계이다.
즉, 반복수행단계(S111)는 복수의 그룹들에 포함된 출력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망들에 입력시킨 결과로 출력된 타카기-수게노 역 퍼지값들을 입력 데이터들로 입력 데이터 입력단계(S101) 내지 함수출력단계(S109)를 수행하는 단계이다.
반복수행단계(S111)는 입력 데이터들의 레코드들의 클래스 분류의 정확도를 높이기 위한 단계로서, 산출단계(S107)에서 산출된 정확도가 가장 높을 경우까지 반복하여 수행될 수 있다.
반복수행단계(S111)는 산출단계(S107)에서 정확도를 산출하기 이전에 정확도가 산출된 적이 없는 경우 또는 반복수행단계(S109)의 결과로 산출된 입력 데이터들의 레코드들의 클래스 분류에 대한 정확도가 직전에 산출된 정확도 미만인 경우에 수행될 수 있다.
예컨대, 산출단계(S107)를 통해 입력 데이터들 I1 내지 I10의 레코드들의 클래스 분류에 대한 제1차 정확도가 산출되었다면, 제1차 정확도를 산출하기 이전에 정확도가 산출된 적이 없는 경우이므로, 그룹 입력단계(S105)의 결과로 산출된 타카기-수게노 역 퍼지값들을 입력 데이터들로 취급하여, 입력 데이터 입력단계(S101) 내지 함수출력단계(S109)가 수행될 수 있다.
또한, 반복수행단계(S111)를 통해 산출된 제2차 정확도가 제1차 정확도를 초과한 경우, 산출된 제2차 정확도가 가장 높은 정확도인지 모르는 상태이기 때문에, 제3차 정확도를 산출하기 위하여 입력 데이터 입력단계(S101) 내지 함수출력단계(S109)가 다시 수행될 수 있다.
만약, 산출된 제3차 정확도가 제2차 정확도가 동일한 경우, 제2차 및 제3차 정확도가 가장 높은 정확도이므로, 반복수행단계(S109)가 종료되고, 제3차 정확도가 입력 데이터들의 레코드들에 대한 클래스 분류의 최종 정확도로서 출력될 수 있다.
예컨대, 파킨슨 환자에 대한 음성 인식 데이터 셋을 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 입력 데이터들로 사용하여, 가중 퍼지 소속함수들을 추출한 경우, 추출된 가중 퍼지 소속함수들은 파킨슨 환자에 대한 음성 인식 데이터들에 대해서는 높은 정확도를 가지고 있는 함수들이므로, 클래스가 정의되지 않은 파킨슨 환자에 대한 음성 인식 데이터들의 클래스를 분류하기 위한 함수들로써 이용될 수 있다.
이처럼, 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법은 입력 데이터들에 대한 클래스 분류의 정확도를 산출하기 위하여 반복수행단계(S109)를 통해 입력 데이터 입력단계(S101)내지 산출단계(S107)를 반복적으로 수행함으로써, 최종적으로 산출된 입력 데이터들에 대한 클래스 분류의 정확도에 대한 신뢰성을 높이고, 함수출력단계(S111)를 입력 데이터들의 클래스 분류에 대해 높은 정확도를 갖는 가중 퍼지 소속함수들을 출력할 수 있는 장점이 있다.
도 2는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 흐름도를 간략히 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 예시를 도시한 도면이다.
구체적으로, 도 2a는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 전체적인 흐름도를 간략히 도시한 도면이고, 도 2b는 제1차 입력 데이터 입력단계(S101) 내지 그룹 입력단계(S105)의 흐름도를 간략히 도시한 도면이고, 도 2c는 산출단계(S107)의 흐름도를 간략히 도시한 도면이다.
도 3a는 입력 데이터들(101)의 값들 및 클래스를 도시한 도면이고, 도 3b는 가중 퍼지 소속함수 기반 심층 신경망(103)을 통해 출력된 타카기-수게노 역 퍼지값들에 대한 클래스를 도시한 도면이고, 도 3c는 제1 그룹(105)에 포함된 타카기-수게노 역 퍼지값들을 도시한 도면이고, 도 3d는 제2 그룹(107)에 포함된 타카기-수게노 역 퍼지값들을 도시한 도면이다.
도 2 및 3을 참조하면, 입력 데이터들(101)이 가중 퍼지 소속함수 기반 심층 신경망(103)에 입력될 수 있다.
가중 퍼지 소속함수 기반 심층 신경망은 입력된 입력 데이터들(101)에 대응되는 타카기-수게노 역 퍼지값들, 타카기-수게노 역 퍼지값들의 레코드별 클래스 분류 결과(109) 및 가중 퍼지 소속함수를 출력할 수 있다.
레코드별 클래스 분류 결과(109)와 입력 데이터들(101)의 클래스를 비교한 결과, 입력 데이터들(101)에 대한 클래스와 상이한 클래스로 분류된 타카기-수게노 역 퍼지값들은 제1 그룹(105)으로 분류되고, 입력 데이터들(101)에 대한 클래스와 상이한 클래스로 분류된 타카기-수게노 역 퍼지값들은 제2 그룹(107)으로 분류된다.
예컨대, 입력 데이터들(101)의 첫 번째 레코드의 실제 클래스와 타카기-수게노 역 퍼지값들의 첫 번째 레코드의 분류된 클래스가 동일하므로, 타키기-수게노 역 퍼지값들의 첫 번째 레코드는 제2 그룹(107)으로 분류될 수 있다.
다만, 입력 데이터들(101)의 두 번째 레코드의 실제 클래스와 타카기-수게노 역 퍼지값들의 두 번째 레코드의 분류된 클래스가 상이하므로, 타키기-수게노 역 퍼지값들의 두 번째 레코드는 제1 그룹(107)으로 분류될 수 있다.
제1 그룹(105) 및 제2 그룹(107)에 포함된 타카기-수게노 역 퍼지값들을 각 그룹별로 가중 퍼지 소속함수 기반 심층 신경망(103)에 입력함으로써, 제1 그룹(105)에 대응되는 가중 퍼지 소속함수 및 제2 그룹(107)에 대응되는 가중 퍼지 소속함수가 출력될 수 있다.
입력 데이터들(101)을 제1 그룹(105)에 대응되는 가중 퍼지 소속함수 및 제2 그룹(107)에 대응되는 가중 퍼지 소속함수에 각각 대입함으로써, 입력 데이터들(101)의 클래스 분류에 대한 정확도가 산출될 수 있다.
산출된 정확도가 기설정된 조건을 만족하는 경우, 반복수행단계(S109)를 통해 입력 데이터 입력단계(S101) 내지 산출단계(S107)가 반복적으로 수행될 수 있다.
반복수행단계(S109)에서는 제1 그룹(105) 및 제2 그룹(107)에 포함된 타카기-수게노 역 퍼지값들을 각 그룹별로 가중 퍼지 소속함수 기반 심층 신경망(103)에 입력한 결과로 출력된 타카기-수게노 역 퍼지값들이 입력 데이터들(101)로 취급되어, 입력 데이터 입력단계(S101) 내지 산출단계(S107)가 수행될 수 있다.
실시예
실험 데이터로는 UCI Machine Learning Repository의 Parkinsons Telemonitoring Data Set을 이용하였다. Data Set은 42명의 조기 파키슨 환자로 부터 측정한 다양한 범위의 생물 의학적 음성으로 구성되어있다.
파킨슨 병의 평가 척도(UPDRS, Unified Parkinson's Disease Rating Scale)에 따르면, UPDRS가 27.246 미만이면 경증 파킨슨 환자이고, UPDRS가 27.246 이상이면 중증 파킨슨 환자로 분류된다.
클래스 분류 차수 클래스 분류의 정확도 (%)
1차 58.71
2차 85.91
3차 97.68
4차 97.68
본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법의 제1차 입력 데이터들로써 Parkinsons Telemonitoring Data Set을 이용하여, 제1차 입력 데이터들의 클래스 분류에 대한 제1차 정확도를 산출한 결과는 58.71%이다.
제1차 정확도만으로는 가장 높은 정확도인지 알 수 없기 때문에, 제2차 정확도의 산출을 수행하였다.
제1차 정확도 산출과정에서 출력된 타카기-수게노 역 퍼지값들을 제2차 입력 데이터들로 이용하여, 제2차 입력 데이터들의 클래스 분류에 대한 제2차 정확도를 산출한 결과는 85.91%이다.
제2차 정확도가 제1차 정확도보다 높아졌지만, 아직 제2차 정확도가 가장 높은 정확도인지 알 수 없기 때문에, 제3차 정확도의 산출을 수행하였다.
제2차 정확도 산출과정에서 출력된 타카기-수게노 역 퍼지값들을 제3차 입력 데이터들로 이용하여, 제3차 입력 데이터들의 클래스 분류에 대한 제3차 정확도를 산출한 결과는 97.68%이다.
제3차 정확도가 제2차 정확도보다 높아졌지만, 아직 제3차 정확도가 가장 높은 정확도인지 알 수 없기 때문에, 제4차 정확도의 산출을 수행하였다.
제3차 정확도 산출과정에서 출력된 타카기-수게노 역 퍼지값들을 제4차 입력 데이터들로 이용하여, 제4차 입력 데이터들의 클래스 분류에 대한 제4차 정확도를 산출한 결과는 97.68%이다.
제3차 정확도와 제4차 정확도가 동일하므로, 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법을 이용한 Parkinsons Telemornitoring Data Set에 대한 최종 정확도는 97.68%임을 알 수 있다.
본 명세서에서 설명된 실시예들에 관한 예시적인 모듈, 단계, 과정, 로직 블록, 수단, 단계 또는 이들의 조합은 전자 하드웨어(코딩 등에 의해 설계되는 디지털 설계), 소프트웨어(프로그램 명령을 포함하는 다양한 형태의 애플리케이션) 또는 이들의 조합에 의해 구현될 수 있다. 하드웨어 및/또는 소프트웨어 중 어떠한 형태로 구현되는지는 사용자 단말에 부여되는 설계상의 제약에 따라 달라질 수 있다. 또한, 본 명세서에서 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 조합에 의해 실행될 수 있다. 소프트웨어에 의해 실행되는 경우, 그 기능은 하나 이상의 명령이나 코드로서 컴퓨터-판독가능 저장 매체에 저장되거나 이를 통해 전송될 수 있다. 컴퓨터-판독가능 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 이용가능한 매체를 총괄적으로 지칭한다.
비록 본 명세서에서의 설명은 예시적인 몇 가지 양상으로 나타났지만, 다양한 수정이나 변경이 후술되는 특허청구범위에 의해 정의되는 범주로부터 이루어질 수 있으며, 본 발명의 기술적인 보호범위는 다음의 특허청구범위에 의하여 정해져야 할 것이다.
101 : 입력 데이터들
103 : 가중 퍼지 소속함수 기반 심층 신경망
105 : 제1 그룹
107 : 제2 그룹
109 : 레코드별 클래스 분류 결과

Claims (17)

  1. 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치에서 수행되는 클래스 분류 방법에 있어서,
    입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력받는 입력 데이터 입력단계;
    상기 입력 데이터들의 레코드들의 클래스와 상기 입력 데이터 입력단계의 결과로 출력된 출력 데이터들의 레코드들의 클래스들을 비교하여, 상기 출력 데이터들을 복수의 그룹들로 분류하는 분류단계;
    상기 분류된 복수의 그룹들에 속한 출력 데이터들을 그룹별로 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망 각각에 입력하는 그룹 입력단계; 및
    상기 그룹 입력단계에서의 입력에 따라 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들의 레코드들에 대한 클래스들의 정확도를 산출하는 산출단계를 포함하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  2. 제1항에 있어서,
    상기 산출단계 이후,
    상기 산출된 정확도가 기설정된 조건을 만족하는 경우,
    상기 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치가 상기 그룹 입력단계에서의 입력에 따라 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 출력 데이터들을 상기 입력 데이터들로하여 상기 입력 데이터 입력단계 내지 산출단계를 수행하는 반복수행단계를 더 포함하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  3. 제1항에 있어서,
    상기 산출단계 이후,
    상기 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치가 상기 입력 데이터 입력단계에서의 입력에 따라 상기 가중 퍼지 소속함수 기반 심층 신경망에서 출력된 가중 퍼지 소속함수 및 상기 그룹들에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 상기 가중 퍼지 소속함수들을 출력하는 함수출력단계를 더 포함하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  4. 제2항에 있어서,
    상기 기설정된 조건은,
    상기 산출단계에서 정확도를 산출하기 이전에 상기 정확도가 산출된 적이 없는 경우 또는 상기 반복수행단계의 결과로 산출된 정확도가 직전에 산출된 정확도를 초과한 경우인,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  5. 제1항에 있어서,
    상기 분류단계는,
    상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 상이한 출력 데이터들로 구성된 제1 그룹 및 상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 동일한 출력 데이터들로 구성된 제2 그룹으로 상기 출력 데이터들을 분류하는 분류단계를 포함하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  6. 제1항에 있어서,
    상기 출력 데이터들은,
    상기 입력 데이터들에 대응되는 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values)인,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  7. 제2항에 있어서,
    상기 반복수행단계는,
    상기 복수의 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망들에 입력시킨 결과로 출력된 타카기-수게노 역 퍼지값들을 입력 데이터들로 상기 입력 데이터 입력단계 내지 산출단계를 수행하는 반복수행단계를 포함하며,
    상기 타카기-수게노 역 퍼지값들은,
    상기 복수의 그룹들에 포함된 출력 데이터들에 대응되는 값들인,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  8. 제1항에 있어서,
    상기 산출하는 단계는,
    상기 입력 데이터들의 레코드들의 클래스들과 상기 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들의 레코드들에 대한 클래스들을 비교하여 상기 입력 데이터들의 레코드들에 대한 클래스들의 정확도를 산출하는 산출단계를 포함하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법.
  9. 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력받고, 상기 입력 데이터들의 레코드들의 클래스와 상기 입력 데이터들을 가중 퍼지 소속함수 기반 심층 신경망에 입력시킨 결과로 출력된 출력 데이터들의 레코드들의 클래스들을 비교하여, 상기 출력 데이터들을 복수의 그룹들로 분류하고,
    상기 분류된 복수의 그룹들에 속한 출력 데이터들을 그룹별로 상기 그룹에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에 입력하고,
    상기 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력시킨 결과로 출력된 가중 퍼지 소속함수들 각각에서 출력된 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들에 대한 클래스들의 정확도를 산출하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  10. 제9항에 있어서,
    상기 산출된 정확도가 기설정된 조건을 만족하는 경우, 상기 복수의 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력한 결과로 출력된 출력 데이터들을 상기 입력 데이터들로하여 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  11. 제9항에 있어서,
    상기 입력 데이터들의 입력에 따라 상기 가중 퍼지 소속함수 기반 심층 신경망에서 출력된 가중 퍼지 소속함수 및 상기 그룹들에 대응되는 가중 퍼지 소속함수 기반 심층 신경망들 각각에서 출력된 상기 가중 퍼지 소속함수들을 출력하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  12. 제10항에 있어서,
    상기 기설정된 조건은,
    상기 입력 데이터들의 레코드들에 대한 클래스 분류의 정확도를 산출하기 이전에 상기 정확도가 산출된 적이 없는 경우 또는 상기 정확도가 직전에 산출된 정확도를 초과한 경우인,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  13. 제9항에 있어서,
    상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 상이한 출력 데이터들로 구성된 제1 그룹 및 상기 출력 데이터들의 레코드들의 클래스가 대응되는 입력 데이터들의 레코드들의 클래스와 동일한 출력 데이터들로 구성된 제2 그룹으로 상기 출력 데이터들을 분류하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  14. 제9항에 있어서,
    상기 출력 데이터들은,
    상기 입력 데이터들에 대응되는 타카기-수게노 역 퍼지값들인,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  15. 제10항에 있어서,
    상기 복수의 그룹들에 포함된 출력 데이터들을 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력시킨 결과로 출력된 타카기-수게노 역 퍼지값들을 상기 입력 데이터들로써 상기 가중 퍼지 소속함수 기반 심층 신경망에 입력하며,
    상기 타카기-수게노 역 퍼지값들은,
    상기 복수의 그룹들에 포함된 출력 데이터들에 대응되는 값들인,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  16. 제9항에 있어서,
    상기 입력 데이터들의 레코드들의 클래스들과 상기 가중 퍼지 소속함수들 각각에 상기 입력 데이터들을 대입시켜 얻은 상기 입력 데이터들의 레코드들에 대한 클래스들을 비교하여 상기 입력 데이터들에 대한 클래스들의 정확도를 산출하는,
    가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
  17. 컴퓨터로 하여금 제1항의 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치의 클래스 분류 방법을 수행하도록 하는 프로그램을 저장한 컴퓨터 판독 가능 기록매체.
KR1020170174400A 2017-12-18 2017-12-18 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체 KR101901307B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170174400A KR101901307B1 (ko) 2017-12-18 2017-12-18 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170174400A KR101901307B1 (ko) 2017-12-18 2017-12-18 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체

Publications (1)

Publication Number Publication Date
KR101901307B1 true KR101901307B1 (ko) 2018-09-21

Family

ID=63720820

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170174400A KR101901307B1 (ko) 2017-12-18 2017-12-18 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체

Country Status (1)

Country Link
KR (1) KR101901307B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102029181B1 (ko) * 2018-12-12 2019-10-07 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 이용한 특징 선택을 위한 방법 및 장치
KR102056704B1 (ko) * 2019-03-29 2020-01-22 가천대학교 산학협력단 멀티 레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법 및 장치
KR102161534B1 (ko) * 2019-11-05 2020-10-05 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치
KR102186157B1 (ko) * 2020-04-22 2020-12-03 가천대학교 산학협력단 뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템
KR102186159B1 (ko) * 2020-04-22 2020-12-03 가천대학교 산학협력단 피어슨 상관계수 및 뉴로-퍼지 네트워크 기반 심음 분석 방법 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101330268B1 (ko) 2012-09-12 2013-11-15 가천대학교 산학협력단 가중 퍼지 소속 함수 기반 뉴로 퍼지 네트워크를 이용한 음성 감정 인식 모델 생성 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101330268B1 (ko) 2012-09-12 2013-11-15 가천대학교 산학협력단 가중 퍼지 소속 함수 기반 뉴로 퍼지 네트워크를 이용한 음성 감정 인식 모델 생성 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Lim, Joon Shik. "Finding Fuzzy Rules for IRIS by Neural Network with Weighted Fuzzy Membership Function." International Journal of Fuzzy Logic and Intelligent Systems 4.2, 2004.

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102029181B1 (ko) * 2018-12-12 2019-10-07 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 이용한 특징 선택을 위한 방법 및 장치
KR102056704B1 (ko) * 2019-03-29 2020-01-22 가천대학교 산학협력단 멀티 레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법 및 장치
KR102161534B1 (ko) * 2019-11-05 2020-10-05 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치
WO2021091052A1 (ko) * 2019-11-05 2021-05-14 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치
KR102186157B1 (ko) * 2020-04-22 2020-12-03 가천대학교 산학협력단 뉴로-퍼지 네트워크 기반 폐음 분석 방법 및 시스템
KR102186159B1 (ko) * 2020-04-22 2020-12-03 가천대학교 산학협력단 피어슨 상관계수 및 뉴로-퍼지 네트워크 기반 심음 분석 방법 및 시스템

Similar Documents

Publication Publication Date Title
KR101901307B1 (ko) 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체
Zhang et al. Deep Takagi–Sugeno–Kang fuzzy classifier with shared linguistic fuzzy rules
TWI769754B (zh) 基於隱私保護確定目標業務模型的方法及裝置
He et al. Asymptotic soft filter pruning for deep convolutional neural networks
KR102558300B1 (ko) 신경망 및 신경망 트레이닝 방법
Bell The co-information lattice
Chartier et al. A bidirectional heteroassociative memory for binary and grey-level patterns
Li et al. Continual learning using bayesian neural networks
Kleyko et al. Modification of holographic graph neuron using sparse distributed representations
CN109389171B (zh) 基于多粒度卷积降噪自动编码器技术的医疗图像分类方法
CN107223260B (zh) 用于动态地更新分类器复杂度的方法
CN111967573A (zh) 数据处理方法、装置、设备及计算机可读存储介质
CN112784929A (zh) 一种基于双元组扩充的小样本图像分类方法及装置
CN111582396A (zh) 一种基于改进卷积神经网络的故障诊断方法
CN113592078A (zh) 一种基于人工智能的深度学习网络训练方法
Pereira et al. Vae-bridge: Variational autoencoder filter for bayesian ridge imputation of missing data
CN114091597A (zh) 基于自适应组样本扰动约束的对抗训练方法、装置及设备
WO2022197615A1 (en) Techniques for adaptive generation and visualization of quantized neural networks
Grim et al. Multiple classifier fusion in probabilistic neural networks
CN110889316B (zh) 一种目标对象识别方法、装置及存储介质
CN115238874A (zh) 一种量化因子的搜索方法、装置、计算机设备及存储介质
Prabhushankar et al. Stochastic surprisal: An inferential measurement of free energy in neural networks
CN114330650A (zh) 基于进化元学习模型训练的小样本特征分析方法及装置
CN113435488A (zh) 一种图像采样概率提升方法及其应用
Shankarampeta et al. Few-Shot Class Incremental Learning with Generative Feature Replay.

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant