KR102056704B1 - A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function - Google Patents

A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function Download PDF

Info

Publication number
KR102056704B1
KR102056704B1 KR1020190036547A KR20190036547A KR102056704B1 KR 102056704 B1 KR102056704 B1 KR 102056704B1 KR 1020190036547 A KR1020190036547 A KR 1020190036547A KR 20190036547 A KR20190036547 A KR 20190036547A KR 102056704 B1 KR102056704 B1 KR 102056704B1
Authority
KR
South Korea
Prior art keywords
class
newfm
input
features
output
Prior art date
Application number
KR1020190036547A
Other languages
Korean (ko)
Inventor
임준식
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020190036547A priority Critical patent/KR102056704B1/en
Application granted granted Critical
Publication of KR102056704B1 publication Critical patent/KR102056704B1/en

Links

Images

Classifications

    • G06N3/0436
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a method and an apparatus for class classification using a deep neural network with a multi-layer weighted fuzzy membership function. According to an embodiment of the present invention, the method for class classification using a deep neural network with a multi-layer weighted fuzzy membership function comprises: (a) a step of inputting input features selected from input data into a first deep neural network with a weighted fuzzy membership function (NEWFM); (b) a step of classifying output features outputted by using the first NEWFM into a first class and a second class in accordance with a class of records of the input features; (c) a step of inputting output features included in the first class into a second NEWFM, and inputting output features included in the second class into a third NEWFM; (d) a step of using the second NEWFM to calculate first output data, and using the third NEWFM to calculate second output data; and (e) a step of using the first and second output data to calculate the accuracy of the class of the records of the input features.

Description

멀티 레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법 및 장치{A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function}Method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function}

본 발명은 클래스 분류 방법 및 장치에 관한 것으로, 더욱 상세하게는 다수의 NEWFM으로 구성된 멀티 레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법 및 장치에 관한 것이다.The present invention relates to a class classification method and apparatus, and more particularly, to a class classification method and apparatus using a multi-layer weighted fuzzy membership function based deep neural network composed of a plurality of NEWFM.

신경망(Neural Network)은 인간이 뇌를 통해 문제를 처리하는 방법과 비슷한 방법으로 문제를 해결하기 위해 컴퓨터에서 채택하고 있는 구조로서, 수학적 모델로서의 뉴런이 상호 연결되어 네트워크를 형성할 때 이를 신경망 또는 인공 신경망(Artificial Neural Network)이라 한다.Neural network is a structure adopted by computers to solve problems in a way similar to how humans handle problems through the brain. When a neuron as a mathematical model is interconnected to form a network, a neural network or artificial It is called Neural Network.

신경망은 각 뉴런이 독립적으로 동작하는 처리기의 역할을 하기 때문에 병렬성(Parallelism)이 뛰어나고, 많은 연결선에 정보가 분산되어 있기 때문에 몇몇 뉴런에 문제가 발생하더라도 전체 시스템에 큰 영향을 주지 않으므로 결함 허용(fault tolerance) 능력이 있으며, 주어진 환경에 대한 학습 능력이 있다.Neural networks have excellent parallelism because each neuron acts as an independent processor, and because information is distributed over many connections, faults do not affect the whole system even if a few neurons fail. tolerance), and the ability to learn about a given environment.

이와 같은 특성 때문에 인공 지능 분야의 문제 해결에 이용되고 있으며, 질병 인식, 문자 인식, 음성 인식, 분류, 진단, 예측 등 여러 분야에서 이용되고 있다.Because of these characteristics, it is used for problem solving in artificial intelligence, and is used in various fields such as disease recognition, text recognition, speech recognition, classification, diagnosis, and prediction.

종래에는 딥러닝과 같은 인공지능 기술을 이용한 질병 인식 모델 생성 방법이 개시되었다. 종래의 질병 인식 모델 생성 방법은 입력 데이터로부터 특징(feature)을 추출하고, 학습한 결과를 통해 해당 질병의 감염 여부를 분류하였다. 다만, 질병 감염 여부의 정확도를 개선하기 위한 방안은 개발이 미흡한 실정이다.In the related art, a disease recognition model generation method using artificial intelligence technology such as deep learning has been disclosed. In the conventional disease recognition model generation method, a feature is extracted from input data, and the infection is classified based on the learned result. However, the development of a plan for improving the accuracy of disease infection is insufficient.

[특허문헌 1] 한국등록특허 제10-1950395호[Patent Document 1] Korean Patent Registration No. 10-1950395

본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, 멀티 레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법 및 장치를 제공하는 것을 그 목적으로 한다.The present invention has been made to solve the above-described problem, and an object thereof is to provide a class classification method and apparatus using a multilayer neural network based on a multilayer weighted fuzzy membership function.

또한, 본 발명은 두 부분으로 나뉘어진 제1 클래스에 포함된 출력 특징들과 제2 클래스에 포함된 출력 특징들을 두 개의 NEWFM에 개별적으로 입력하여 제1 출력 데이터와 제2 출력 데이터를 각각 산출하는 클래스 분류 방법 및 장치를 제공하는 것을 그 목적으로 한다. In addition, the present invention calculates the first output data and the second output data by separately inputting the output features included in the first class and the output features included in the second class divided into two parts to two NEWFM It is an object of the present invention to provide a class classification method and apparatus.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood from the following description.

상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법은 (a) 입력 데이터들로부터 선택된 입력 특징들(features)을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하는 단계; (b) 상기 제1 NEWFM을 이용하여 출력된 출력 특징들을 상기 입력 특징들의 레코드들의 클래스에 따라 제1 클래스와 제2 클래스로 분류하는 단계; (c) 상기 제1 클래스에 포함된 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 클래스에 포함된 출력 특징들을 제3 NEWFM에 입력하는 단계; (d) 상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 단계; 및 (e) 상기 제1 출력 데이터와 상기 제2 출력 데이터를 이용하여, 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출하는 단계;를 포함할 수 있다. In order to achieve the above objects, a class classification method using a multilayer-weighted fuzzy membership function based deep neural network according to an embodiment of the present invention (a) a first weighted fuzzy selected input features selected from the input data; Inputting to a membership function based neural network with weighted fuzzy membership function (NEWFM); (b) classifying output features output using the first NEWFM into a first class and a second class according to a class of records of the input features; (c) inputting output features included in the first class into a second NEWFM, and inputting output features included in the second class into a third NEWFM; (d) calculating first output data using the second NEWFM and calculating second output data using the third NEWFM; And (e) calculating an accuracy of a class of records of the input features using the first output data and the second output data.

실시예에서, 상기 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법은 상기 (a) 단계 이전에, 상기 입력 데이터들을 다수의 분할 그룹으로 분할하는 단계; 상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하는 단계; 상기 복셀들로부터 평균 복셀(average voxel)을 산출하는 단계; 상기 평균 복셀로부터 다수의 특징들을 추출하는 단계; 및 제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 상기 입력 특징들을 선택하는 단계;를 더 포함할 수 있다.In an embodiment, the class classification method using the multilayer weighted fuzzy membership function based deep neural network may include: before the step (a), dividing the input data into a plurality of division groups; Extracting voxels for input data included in each of the plurality of division groups; Calculating an average voxel from the voxels; Extracting a plurality of features from the average voxel; And selecting the input features among the plurality of input groups and the plurality of features according to the accuracy using a fourth NEWFM.

실시예에서, 상기 (b) 단계는, 상기 입력 특징들의 레코드들의 클래스에 기반하여 상기 제1 NEWFM에 의해 출력된 출력 특징들의 클래스들을 비교하여, 상기 출력 특징들을 제1 클래스와 제2 클래스로 분류하는 단계;를 포함할 수 있다.In an embodiment, the step (b) compares the classes of output features output by the first NEWFM based on the class of records of the input features, classifying the output features into a first class and a second class. It may comprise;

실시예에서, 상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고, 상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력될 수 있다.In an embodiment, the first NEWFM, the second NEWFM, and the third NEWFM are included in one of the learning units of the first learning layer, wherein the first output data and the second output data include: It may be input to one of the learning units of the two learning layers.

실시예에서, 상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많을 수 있다.In an embodiment, the number of learning units of the first learning layer may be greater than the number of learning units of the second learning layer.

실시예에서, 상기 산출된 제1 출력 데이터는, 상기 제1 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values)을 포함하고, 상기 산출된 제2 출력 데이터는, 상기 제2 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들을 포함할 수 있다.In an embodiment, the calculated first output data includes Takagi-Sugeno defuzzification values corresponding to output features included in the first class, wherein the calculated first output data includes: The second output data may include Takagi-Sugeno inverse purge values corresponding to output features included in the second class.

실시예에서, 상기 (e) 단계는, 상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출하는 단계;를 포함할 수 있다.In an embodiment, the step (e) may include inputting the first output data and the second output data to a fifth NEWFM to calculate an accuracy of a class of records of the input characteristics.

실시예에서, 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치는 입력 데이터들로부터 선택된 입력 특징들(features)을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하고, 상기 제1 NEWFM을 이용하여 출력된 상기 입력 특징들의 레코드들의 클래스에 따라 제1 클래스와 제2 클래스로 분류하고, 상기 제1 클래스에 포함된 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 클래스에 포함된 출력 특징들을 제3 NEWFM에 입력하고, 상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하며, 상기 제1 출력 데이터와 상기 제2 출력 데이터를 이용하여 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출하는 제어부;를 포함할 수 있다.In an embodiment, a classifier using a multilayer weighted fuzzy membership function based deep neural network may include input features selected from input data based on a first weighted fuzzy membership function deep neural network (NEFM). ), Classify the first and second classes according to the class of the records of the input features output using the first NEWFM, and input the output features included in the first class to the second NEWFM. Inputting output features included in the second class into a third NEWFM, calculating first output data using the second NEWFM, calculating second output data using the third NEWFM, And a controller configured to calculate an accuracy of a class of records of the input features by using first output data and the second output data.

실시예에서, 상기 제어부는, 상기 입력 데이터들을 다수의 분할 그룹으로 분할하고, 상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하고, 상기 복셀들로부터 평균 복셀(average voxel)을 산출하고, 상기 평균 복셀로부터 다수의 특징들을 추출하며, 제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 상기 입력 특징들을 선택할 수 있다.In an embodiment, the control unit divides the input data into a plurality of division groups, extracts voxels for input data included in each of the plurality of division groups, and averages voxels from the voxels. ), Extract a plurality of features from the average voxel, and select the input features among the plurality of division groups and the plurality of features according to accuracy using a fourth NEWFM.

실시예에서, 상기 제어부는, 상기 입력 특징들의 레코드들의 클래스에 기반하여 상기 제1 NEWFM에 의해 출력된 출력 특징들의 클래스들을 비교하여, 상기 출력 특징들을 제1 클래스와 제2 클래스로 분류할 수 있다.In an embodiment, the controller may classify the output features into a first class and a second class by comparing classes of output features output by the first NEWFM based on the class of records of the input features. .

실시예에서, 상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고, 상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력될 수 있다.In an embodiment, the first NEWFM, the second NEWFM, and the third NEWFM are included in one of the learning units of the first learning layer, wherein the first output data and the second output data include: It may be input to one of the learning units of the two learning layers.

실시예에서, 상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많을 수 있다.In an embodiment, the number of learning units of the first learning layer may be greater than the number of learning units of the second learning layer.

실시예에서, 상기 산출된 제1 출력 데이터는, 상기 제1 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values)을 포함하고, 상기 산출된 제2 출력 데이터는, 상기 제2 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들을 포함할 수 있다.In an embodiment, the calculated first output data includes Takagi-Sugeno defuzzification values corresponding to output features included in the first class, wherein the calculated first output data includes: The second output data may include Takagi-Sugeno inverse purge values corresponding to output features included in the second class.

실시예에서, 상기 제어부는, 상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출할 수 있다. In an embodiment, the controller may input the first output data and the second output data to a fifth NEWFM to calculate an accuracy of a class of records of the input characteristics.

상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다.Specific details for achieving the above objects will be apparent with reference to the embodiments to be described later in detail with the accompanying drawings.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다.However, the present invention is not limited to the embodiments disclosed below, but may be configured in a variety of different forms, to make the disclosure of the present invention complete and those of ordinary skill in the art to which the present invention belongs ( The following description is provided to fully inform the scope of the invention to the ordinary technician.

본 발명의 일 실시예에 의하면, 두 부분으로 나뉘어진 제1 클래스에 포함된 출력 특징들과 제2 클래스에 포함된 출력 특징들을 두 개의 NEWFM에 개별적으로 입력하여 제1 출력 데이터와 제2 출력 데이터를 각각 산출함으로써, 클래스 분류의 정확도를 향상시킬 수 있다.According to an embodiment of the present invention, the first output data and the second output data by separately inputting the output features included in the first class and the output features included in the second class into two NEWFMs divided into two parts. By calculating the respective values, the accuracy of class classification can be improved.

본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effects, and the tentative effects expected by the technical features of the present invention will be clearly understood from the following description.

도 1은 본 발명의 일 실시예에 따른 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치의 동작 방법을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 입력 데이터들로부터 입력 특징들을 선택하는 과정을 도시한 도면이다.
도 3a는 본 발명의 일 실시예에 따른 입력 데이터의 복셀의 예를 도시한 도면이다.
도 3b는 본 발명의 일 실시예에 따른 입력 특징들의 선택의 예를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 구조를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 학습 유닛의 구조를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치의 기능적 구성을 도시한 도면이다.
1 is a diagram illustrating a method of operating a classifier using a multilayer weighted fuzzy membership function based deep neural network according to an embodiment of the present invention.
2 is a diagram illustrating a process of selecting input features from input data according to an embodiment of the present invention.
3A is a diagram illustrating an example of a voxel of input data according to an embodiment of the present invention.
3B illustrates an example of selection of input features in accordance with one embodiment of the present invention.
4 is a diagram illustrating a class classification structure using a weighted fuzzy membership function based deep neural network according to an embodiment of the present invention.
5 is a diagram illustrating a structure of a learning unit according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a functional configuration of a classifier using a multilayer weighted fuzzy membership function based deep neural network according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The present invention may be modified in various ways and may have various embodiments. Specific embodiments are illustrated in the drawings and described in detail.

청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.Various features of the invention disclosed in the claims may be better understood in view of the drawings and detailed description. The apparatus, methods, recipes, and various embodiments disclosed herein are provided for purposes of illustration. The disclosed structural and functional features are intended to enable those skilled in the art to specifically practice the various embodiments, and are not intended to limit the scope of the invention. The terms and phrases disclosed are intended to explain various features of the disclosed invention in an easy-to-understand manner, and are not intended to limit the scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.In the following description of the present invention, if it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

이하, 본 발명의 일 실시예에 따른 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)을 이용한 클래스 분류 방법 및 장치를 설명한다.Hereinafter, a class classification method and apparatus using a multilayer weighted fuzzy membership function (NEWFM) based on a multilayer weighted fuzzy membership function will be described.

도 1은 본 발명의 일 실시예에 따른 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치의 동작 방법을 도시한 도면이다.1 is a diagram illustrating a method of operating a classifier using a multilayer weighted fuzzy membership function based deep neural network according to an embodiment of the present invention.

도 1을 참고하면, S101 단계는, 입력 데이터들로부터 선택된 입력 특징들을 제1 NEWFM에 입력하는 단계이다.Referring to FIG. 1, in step S101, input characteristics selected from input data are input to a first NEWFM.

일 실시예에서, S101 단계 이전에, 입력 데이터들을 다수의 분할 그룹으로 분할하고, 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하고, 복셀들로부터 평균 복셀(average voxel)을 산출하고, 평균 복셀로부터 다수의 특징들을 추출하며, 제4 NEWFM을 이용하여 정확도에 따라 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 입력 특징들을 선택할 수 있다. In an embodiment, before step S101, the input data is divided into a plurality of division groups, the voxels for the input data included in each of the plurality of division groups are extracted, and the average voxels are extracted from the voxels. , A plurality of features are extracted from the average voxel, and the fourth NEWFM may be used to select the input features among the plurality of division groups and the plurality of features according to the accuracy.

S103 단계는, 제1 NEWFM을 이용하여 출력된 출력 특징들을 입력 특징들의 레코드들의 클래스에 따라 제1 클래스와 제2 클래스로 분류하는 단계이다. 구체적으로, 상기 입력 특징들의 레코드들의 클래스에 기반하여 상기 제1 NEWFM에 의해 출력된 출력 특징들의 클래스들을 비교하여, 상기 출력 특징들을 제1 클래스와 제2 클래스로 분류할 수 있다. 예를 들어, 제1 클래스는 알츠하이머 병에 걸린 환자를 의미하고, 제2 클래스는 알츠하이머 병이 걸리지 않은 일반인을 의미할 수 있다. In step S103, the output features output using the first NEWFM are classified into a first class and a second class according to the class of records of the input features. Specifically, the output features may be classified into a first class and a second class by comparing classes of output features output by the first NEWFM based on the class of records of the input features. For example, the first class may mean a patient with Alzheimer's disease, and the second class may mean a general person without Alzheimer's disease.

S105 단계는, 제1 클래스에 포함된 출력 특징들을 제2 NEWFM에 입력하고, 제2 클래스에 포함된 출력 특징들을 제3 NEWFM에 입력하는 단계이다. 즉, 두 부분으로 나뉘어진 제1 클래스에 포함된 출력 특징들과 제2 클래스에 포함된 출력 특징들은 두 개의 NEWFM을 개별적으로 사용하여 학습될 수 있다. In step S105, the output features included in the first class are input to the second NEWFM, and the output features included in the second class are input to the third NEWFM. That is, output features included in the first class divided into two parts and output features included in the second class may be learned using two NEWFMs separately.

일 실시예에서, 상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함될 수 있다. 여기서, 학습 유닛(422)은 클래스 패턴 추출 유닛(class pattern extraction unit, CPEU) 또는 이와 동등한 기술적 의미를 갖는 용어로 지칭될 수 있다. In one embodiment, the first NEWFM, the second NEWFM, and the third NEWFM may be included in one of the learning units of the first learning layer. Here, the learning unit 422 may be referred to as a class pattern extraction unit (CPEU) or a term having an equivalent technical meaning.

S107 단계는, 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 단계이다. 일 실시예에서, 산출된 제1 출력 데이터는, 제1 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values)을 포함하고, 제2 출력 데이터는, 상기 제2 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들을 포함할 수 있다. In step S107, the first output data is calculated using the second NEWFM, and the second output data is calculated using the third NEWFM. In one embodiment, the calculated first output data includes Takagi-Sugeno defuzzification values corresponding to output features included in the first class, and the second output data is It may include Takagi-Sugeno inverse purge values corresponding to output features included in the second class.

일 실시예에서, 상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력될 수 있다. 이 경우, 상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많을 수 있다. In an embodiment, the first output data and the second output data may be input to one of the learning units of the second learning layer. In this case, the number of learning units of the first learning layer may be greater than the number of learning units of the second learning layer.

S109 단계는, 제1 출력 데이터와 제2 출력 데이터를 이용하여, 입력 특징들의 레코드들의 클래스의 정확도를 산출하는 단계이다.In step S109, using the first output data and the second output data, calculating the accuracy of the class of records of the input features.

도 2는 본 발명의 일 실시예에 따른 입력 데이터들로부터 입력 특징들을 선택하는 과정을 도시한 도면이다.2 is a diagram illustrating a process of selecting input features from input data according to an embodiment of the present invention.

도 2를 참고하면, 입력 데이터 분할 단계(210)는 입력 데이터들을 입력 특성에 따라 다수의 분할 그룹으로 분할할 수 있다. 예를 들어, 입력 데이터가 뇌 이미지인 경우, 뇌 이미지는 기능에 따라 다수의 뇌 영역으로 분할될 수 있다. Referring to FIG. 2, the input data division step 210 may divide the input data into a plurality of division groups according to input characteristics. For example, when the input data is a brain image, the brain image may be divided into a plurality of brain regions according to a function.

복셀 추출 단계(220)는 각 분할 그룹에 포함된 입력 데이터들에 대한 복셀들을 산출하고, 추출된 복셀들로부터 하나의 평균 복셀을 산출할 수 있다. 여기서, 도 3a를 참고하면, 입력 데이터의 기본 단위는 작은 입방체인 복셀(310)일 수 있다. 이 경우, 각 복셀(310)은 입력 데이터의 시계열에 따라 다수의 값을 가질 수 있다. 여기서, T는 입력 데이터의 한 레코드에 포함된 뇌 이미지의 수를 나타낼 수 있다. 따라서, 시계열에 따른 다수의 복셀로부터 하나의 평균 복셀을 획득할 수 있다. The voxel extraction step 220 may calculate voxels for input data included in each division group, and calculate one average voxel from the extracted voxels. 3A, the basic unit of the input data may be a voxel 310 which is a small cube. In this case, each voxel 310 may have a plurality of values according to the time series of the input data. Here, T may represent the number of brain images included in one record of the input data. Therefore, one average voxel can be obtained from a plurality of voxels along the time series.

특징 추출 단계(230)는 평균 복셀로부터 다수의 특징들을 추출할 수 있다. 예를 들어, d3, d4, a4 계수를 이용하여 평균 복셀로부터 Haar wavelet 특징을 추출할 수 있다. 다만, 다수의 특징들을 추출하는 방법은 이에 제한되지 않는다. Feature extraction step 230 may extract a plurality of features from the average voxel. For example, the Haar wavelet feature can be extracted from the average voxel using the d3, d4, a4 coefficients. However, the method of extracting a plurality of features is not limited thereto.

특징 선택 단계(240)는 제4 NEWFM을 이용하여 정확도에 따라 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 입력 특징들을 선택할 수 있다. 일 실시예에서, 다수의 분할 그룹 중 정확도가 높은 일부가 입력 그룹으로 선택되고 다수의 특징들 중 입력 특징들로 선택될 수 있다. 여기서, 선택된 입력 특징을 갖는 각 입력 그룹은 아래에서 설명될 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망에 대한 입력으로 사용될 수 있다. The feature selection step 240 may select the input features among the plurality of division groups and the input features among the plurality of division groups according to the accuracy using the fourth NEWFM. In one embodiment, a portion of the plurality of division groups with high accuracy may be selected as the input group and among the plurality of features as the input features. Here, each input group having the selected input feature may be used as an input to a multilayer weighted fuzzy membership function based deep neural network to be described below.

예를 들어, 도 3b를 참고하면, 제4 NEWFM(320)을 이용하여 90개의 뇌 영역 각각에 대한 32개의 특징들을 중 정확도가 가장 높은 32개의 뇌 영역들과 20개의 입력 특징들을 선택할 수 있다. For example, referring to FIG. 3B, among the 32 features for each of the 90 brain regions, the 32 NEW brain regions and the 20 input features having the highest accuracy may be selected using the fourth NEWFM 320.

일 실시예에서, 선택된 입력 그룹들은 정확도에 따라 정렬되어 그룹핑될 수 있다. 예를 들어, 32개의 뇌 영역들은 8개의 그룹으로 그룹핑되며, 각 그룹은 4개의 뇌 영역으로 구성될 수 있다. 이 경우, 그룹 1은 정확도가 가장 높은 두 입력 그룹(Cingulum_mid_r, Caudate_r)과 정확도가 가장 낮은 두 입력 그룹(Amygdala_l 및 Frontal_sup_orb_l)으로 그룹핑될 수 있다. In one embodiment, the selected input groups may be ordered and grouped according to accuracy. For example, 32 brain regions can be grouped into eight groups, each group consisting of four brain regions. In this case, group 1 may be grouped into two input groups Cingulum_mid_r and Caudate_r having the highest accuracy and two input groups Amygdala_l and Frontal_sup_orb_l having the lowest accuracy.

도 4는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망(400)을 이용한 클래스 분류 구조를 도시한 도면이다.4 is a diagram illustrating a class classification structure using a weighted fuzzy membership function-based deep neural network 400 according to an embodiment of the present invention.

도 4를 참고하면, 가중 퍼지 소속함수 기반 심층 신경망(400)은 입력 레이어(410), 학습 레이어(412) 및 출력 레이어(414)를 포함할 수 있다.Referring to FIG. 4, the weighted fuzzy membership function based deep neural network 400 may include an input layer 410, a learning layer 412, and an output layer 414.

입력 레이어(410)는 입력 데이터로부터 선택된 각 입력 그룹에 대한 입력 특징들(420)이 입력될 수 있다.The input layer 410 may receive input features 420 for each input group selected from the input data.

학습 레이어(412)는 다수의 학습 유닛(learning unit)(422)으로 구성될 수 있다. 일 실시예에서, 도 5를 참고하면, 각 학습 유닛(422)은 제1 NEWFM(510), 제2 NEWFM(520) 및 제3 NEWFM(530)을 포함할 수 있다.The learning layer 412 may be composed of a plurality of learning units 422. In one embodiment, referring to FIG. 5, each learning unit 422 may include a first NEWFM 510, a second NEWFM 520, and a third NEWFM 530.

이 경우, 입력 데이터들로부터 선택된 각 입력 그룹에 대한 입력 특징들(420)을 제1 NEWFM(510)에 입력할 수 있다. 또한, 입력 특징들(420)의 레코드들의 클래스에 따라, 제1 NEWFM(510)으로부터 출력된 출력 특징들을 제1 클래스와 제2 클래스로 분류할 수 있다. In this case, input features 420 for each input group selected from the input data may be input to the first NEWFM 510. In addition, according to the class of records of the input features 420, the output features output from the first NEWFM 510 may be classified into a first class and a second class.

이후, 제1 클래스에 포함된 출력 특징들을 제2 NEWFM(520)에 입력하고, 제2 클래스에 포함된 출력 특징들을 제3 NEWFM(530)에 입력할 수 있다. 또한, 제2 NEWFM(520)을 이용하여 제1 출력 데이터(s1)를 산출하고, 제3 NEWFM(530)을 이용하여 제2 출력 데이터(s2)를 산출할 수 있다. 여기서, 산출된 제1 출력 데이터와 제2 출력 데이터는 출력 레이어(414)의 제5 NEWFM(424)로 입력될 수 있다. Thereafter, the output features included in the first class may be input to the second NEWFM 520, and the output features included in the second class may be input to the third NEWFM 530. In addition, the first output data s1 may be calculated using the second NEWFM 520, and the second output data s2 may be calculated using the third NEWFM 530. Here, the calculated first output data and the second output data may be input to the fifth NEWFM 424 of the output layer 414.

학습 레이어(412)는 적어도 하나의 레이어로 구성될 수 있다. 도 4에서는 학습 레이어(412)가 3개의 레이어로 구성되나, 레이어의 개수는 제한되지 않는다. 이 경우, 예를 들어, 제1 학습 레이어는 32개의 학습 유닛을 포함하며, 제1 학습 레이어의 4개의 학습 유닛의 출력이 제2 학습 레이어의 하나의 학습 유닛에 대한 입력으로 입력될 수 있다.The learning layer 412 may be composed of at least one layer. In FIG. 4, the learning layer 412 is composed of three layers, but the number of layers is not limited. In this case, for example, the first learning layer may include 32 learning units, and outputs of four learning units of the first learning layer may be input as inputs to one learning unit of the second learning layer.

또한, 제2 학습 레이어는 8개의 학습 유닛을 포함하며, 제2 학습 레이어의 2개의 학습 유닛의 출력이 제3 학습 레이어의 하나의 학습 유닛에 대한 입력으로 입력될 수 있다.In addition, the second learning layer includes eight learning units, and outputs of two learning units of the second learning layer may be input as inputs to one learning unit of the third learning layer.

또한, 제3 학습 레이어는 4개의 학습 유닛을 포함하며, 제3 학습 레이어의 학습 유닛의 출력은 출력 레이어(414)의 제5 NEWFM(424)으로 입력될 수 있다. 출력 레이어(414)는 제1 출력 데이터와 제2 출력 데이터가 입력된 제5 NEWFM(424)을 이용하여, 입력 특징들(420)의 레코드들의 클래스의 정확도를 출력할 수 있다. In addition, the third learning layer may include four learning units, and an output of the learning unit of the third learning layer may be input to the fifth NEWFM 424 of the output layer 414. The output layer 414 may output the accuracy of the class of records of the input features 420 using the fifth NEWFM 424 to which the first output data and the second output data are input.

예를 들어, 각 레이어에 대한 정확도는 하기 <표 1>과 같이 나타낼 수 있다. 하기 <표 1>을 참고하면, 입력 레이어보다 멀티레이어 NEWFM 구조를 거친 출력 레이어에서 보다 정확한 결과를 도출할 수 있음을 확인할 수 있다. For example, the accuracy of each layer can be expressed as shown in Table 1 below. Referring to <Table 1>, it can be seen that more accurate results can be obtained in an output layer having a multilayer NEWFM structure than an input layer.

입력 그룹Input group 입력 레이어
정확도
Input layer
accuracy
제1 학습 레이어
정확도
First learning layer
accuracy
제2 학습 레이어
정확도
Second learning layer
accuracy
출력 레이어
정확도
Output layer
accuracy
Group 1Group 1 73.3%73.3% 89.6%89.6% 93.7%93.7% 97.3%97.3% Group 2Group 2 76.9%76.9% 88.5%88.5% Group 3Group 3 72.8%72.8% 89.1%89.1% 95.6%95.6% Group 4Group 4 71.7% 71.7% 88.4%88.4% Group 5Group 5 77.1% 77.1% 90.2%90.2% 94.3%94.3% Group 6Group 6 76.1%76.1% 90.7%90.7% Group 7Group 7 73.9%73.9% 88.1%88.1% 96.1%96.1% Group 8Group 8 75.2% 75.2% 89.6%89.6%

또한, 본 발명에 따른 멀티레이어 NEWFM를 이용한 결과와 종래의 CNN 기술을 이용한 결과를 비교하면 하기 <표 2>와 같이 나타낼 수 있다. 하기 <표 2>를 참고하면, 종래의 CNN보다 본 발명에 따른 멀티레이어 NEWFM을 이용한 경우 보다 높은 정확도의 결과를 도출함을 확인할 수 있다. In addition, the results using the multilayer NEWFM according to the present invention and the results using the conventional CNN technology can be represented as shown in Table 2 below. Referring to Table 2, it can be seen that the result of higher accuracy is obtained when using the multilayer NEWFM according to the present invention than the conventional CNN.

구분division 정확도accuracy CNNCNN 96.8%96.8% 멀티레이어 NEWFMMultilayer NEWFM 97.3%97.3%

도 6은 본 발명의 일 실시예에 따른 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치(600)의 기능적 구성을 도시한 도면이다.FIG. 6 is a diagram illustrating a functional configuration of a classifier 600 using a multilayer weighted fuzzy membership function based deep neural network according to an embodiment of the present invention.

도 6을 참고하면, 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치(600)는 제어부(610), 통신부(620) 및 저장부(630)를 포함할 수 있다.Referring to FIG. 6, the classifier 600 using the multilayer weighted fuzzy membership function-based deep neural network may include a controller 610, a communication unit 620, and a storage unit 630.

제어부(610)는 입력 데이터들을 전처리하여 입력 특징들을 선택할 수 있다. 또한, 제어부(610)는 선택된 입력 특징들을 제1 NEWFM에 입력하고, 입력 특징들의 레코드들의 클래스에 따라, 제1 NEWFM을 이용하여 출력된 출력 특징들을 제1 클래스와 제2 클래스로 분류하고, 제1 클래스에 포함된 출력 특징들을 제2 NEWFM에 입력하여 제1 출력 데이터를 산출하고, 제2 클래스에 포함된 출력 특징들을 제3 NEWFM에 입력하여 제2 출력 데이터를 산출하며, 산출된 제1 출력 데이터와 제2 출력 데이터를 이용하여 입력 특징들의 레코드들의 클래스의 정확도를 산출할 수 있다. The controller 610 may select input features by preprocessing the input data. In addition, the controller 610 inputs the selected input features to the first NEWFM, classifies the output features output by using the first NEWFM into first and second classes according to the class of records of the input features. Inputting the output features included in the first class to the second NEWFM to produce first output data, inputting the output features included in the second class into the third NEWFM to calculate the second output data, and calculating the calculated first output The data and the second output data may be used to calculate the accuracy of the class of records of the input features.

일 실시예에서, 제어부(610)는 적어도 하나의 프로세서 또는 마이크로(micro) 프로세서를 포함하거나, 또는, 프로세서의 일부일 수 있다. 또한, 제어부(610)는 CP(communication processor)라 지칭될 수 있다. 제어부(610)는 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치(600)의 각 동작을 제어할 수 있다. In one embodiment, the controller 610 may include at least one processor or a micro processor, or may be part of a processor. In addition, the controller 610 may be referred to as a communication processor (CP). The controller 610 may control each operation of the class classification apparatus 600 using the multilayer weighted fuzzy membership function based deep neural network.

통신부(620)는 유선 통신 네트워크 또는 무선 통신 네트워크를 통해 외부로부터 입력 데이터들을 수신할 수 있다. The communication unit 620 may receive input data from the outside through a wired communication network or a wireless communication network.

일 실시예에서, 통신부(620)는 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. 통신부(620)의 전부 또는 일부는 '송신부', '수신부' 또는 '송수신부(transceiver)'로 지칭될 수 있다.In one embodiment, the communication unit 620 may include at least one of a wired communication module and a wireless communication module. All or part of the communication unit 620 may be referred to as a 'transmitter', 'receiver' or 'transceiver'.

저장부(630)는 입력 데이터들을 저장할 수 있다. 일 실시예에서, 저장부(630)는 오프라인 수단 또는 무선 통신 네트워크를 통해 전달된 입력 데이터들을 저장할 수 있다. The storage unit 630 may store input data. In one embodiment, the storage unit 630 may store input data transmitted via offline means or a wireless communication network.

일 실시예에서, 저장부(630)는 휘발성 메모리, 비휘발성 메모리 또는 휘발성 메모리와 비휘발성 메모리의 조합으로 구성될 수 있다. 그리고, 저장부(630)는 제어부(610)의 요청에 따라 저장된 데이터를 제공할 수 있다.In an embodiment, the storage unit 630 may be configured as a volatile memory, a nonvolatile memory, or a combination of the volatile memory and the nonvolatile memory. In addition, the storage unit 630 may provide the stored data at the request of the controller 610.

이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다.Therefore, the embodiments disclosed herein are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the present invention is not limited by these embodiments.

본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다.The scope of protection of the present invention should be interpreted by the claims, and all technical ideas within the scope equivalent thereto should be understood as being included in the scope of the present invention.

210: 입력 데이터 분할 단계
220: 복셀 추출 단계
230: 특징 추출 단계
240: 특징 선택 단계
310: 복셀
320: 제4 NEWFM
410: 입력 레이어
412: 학습 레이어
414: 출력 레이어
420: 입력 특징들
422: 학습 유닛
424: 제5 NEWFM
510: 제1 NEWFM
520: 제2 NEWFM
530: 제3 NEWFM
600: 멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치
610: 제어부
620: 통신부
630: 저장부
210: input data partitioning step
220: voxel extraction step
230: feature extraction step
240: feature selection step
310: voxel
320: fourth NEWFM
410: input layer
412: learning layer
414: output layer
420: input features
422: learning unit
424: Fifth NEWFM
510: First NEWFM
520: second NEWFM
530: Third NEWFM
600: Classifier using a multilayer weighted fuzzy membership function based deep neural network
610: control unit
620: communication unit
630: storage unit

Claims (14)

입력 데이터들을 다수의 분할 그룹으로 분할하는 단계;
상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하는 단계;
상기 복셀들로부터 평균 복셀(average voxel)을 산출하는 단계;
상기 평균 복셀로부터 다수의 특징들을 추출하는 단계; 및
제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 입력 특징들(features)을 선택하는 단계;
상기 입력 특징들을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하는 단계;
상기 제1 NEWFM을 이용하여 출력된 출력 특징들을 상기 입력 특징들의 레코드들의 클래스에 따라 제1 클래스와 제2 클래스로 분류하는 단계;
상기 제1 클래스에 포함된 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 클래스에 포함된 출력 특징들을 제3 NEWFM에 입력하는 단계;
상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 단계; 및
상기 제1 출력 데이터와 상기 제2 출력 데이터를 이용하여, 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출하는 단계;
를 포함하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류를 위한 프로세서의 동작 방법.
Dividing the input data into a plurality of division groups;
Extracting voxels for input data included in each of the plurality of division groups;
Calculating an average voxel from the voxels;
Extracting a plurality of features from the average voxel; And
Selecting input features among the plurality of division groups and a plurality of features according to accuracy using a fourth NEWFM;
Inputting the input features into a first neural network with weighted fuzzy membership function (NEWFM);
Classifying output features output using the first NEWFM into a first class and a second class according to a class of records of the input features;
Inputting output features included in the first class into a second NEWFM and inputting output features included in the second class into a third NEWFM;
Calculating first output data using the second NEWFM and calculating second output data using the third NEWFM; And
Calculating an accuracy of a class of records of the input features using the first output data and the second output data;
Containing,
An operating method of a processor for class classification using a multilayer weighted fuzzy membership function based deep neural network.
삭제delete 제1항에 있어서,
상기 분류하는 단계는,
상기 입력 특징들의 레코드들의 클래스에 기반하여 상기 제1 NEWFM에 의해 출력된 출력 특징들의 클래스들을 비교하여, 상기 출력 특징들을 제1 클래스와 제2 클래스로 분류하는 단계;
를 포함하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류를 위한 프로세서의 동작 방법.
The method of claim 1,
The classifying step,
Comparing the classes of output features output by the first NEWFM based on the class of records of the input features, classifying the output features into a first class and a second class;
Containing,
An operating method of a processor for class classification using a multilayer weighted fuzzy membership function based deep neural network.
제1항에 있어서,
상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고,
상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력되는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류를 위한 프로세서의 동작 방법.
The method of claim 1,
The first NEWFM, the second NEWFM, and the third NEWFM are included in one of the learning units of the first learning layer,
The first output data and the second output data are input to one of the learning units of the second learning layer,
An operating method of a processor for class classification using a multilayer weighted fuzzy membership function based deep neural network.
제4항에 있어서,
상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많은,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류를 위한 프로세서의 동작 방법.
The method of claim 4, wherein
The number of learning units of the first learning layer is greater than the number of learning units of the second learning layer,
An operating method of a processor for class classification using a multilayer weighted fuzzy membership function based deep neural network.
제1항에 있어서,
상기 산출된 제1 출력 데이터는, 상기 제1 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values)을 포함하고,
상기 산출된 제2 출력 데이터는, 상기 제2 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들을 포함하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류를 위한 프로세서의 동작 방법.
The method of claim 1,
The calculated first output data includes Takagi-Sugeno defuzzification values corresponding to output features included in the first class,
The calculated second output data includes Takagi-Sugeno inverse purge values corresponding to output features included in the second class.
An operating method of a processor for class classification using a multilayer weighted fuzzy membership function based deep neural network.
제1항에 있어서,
상기 산출하는 단계는,
상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출하는 단계;
를 포함하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류를 위한 프로세서의 동작 방법.
The method of claim 1,
The calculating step,
Inputting the first output data and the second output data into a fifth NEWFM to calculate an accuracy of the class of records of the input characteristics;
Containing,
An operating method of a processor for class classification using a multilayer weighted fuzzy membership function based deep neural network.
입력 데이터들을 다수의 분할 그룹으로 분할하고,
상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하고,
상기 복셀들로부터 평균 복셀(average voxel)을 산출하고,
상기 평균 복셀로부터 다수의 특징들을 추출하고,
제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 입력 특징들(features)을 선택하고,
상기 입력 특징들을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하고,
상기 제1 NEWFM을 이용하여 출력된 상기 입력 특징들의 레코드들의 클래스에 따라 제1 클래스와 제2 클래스로 분류하고,
상기 제1 클래스에 포함된 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 클래스에 포함된 출력 특징들을 제3 NEWFM에 입력하고,
상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하며,
상기 제1 출력 데이터와 상기 제2 출력 데이터를 이용하여 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출하는 프로세서;
를 포함하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
Divide the input data into a plurality of division groups,
Extracting voxels for input data included in each of the plurality of division groups,
Calculating an average voxel from the voxels,
Extract a plurality of features from the average voxel,
Select input features among the plurality of division groups and the input features among the plurality of division groups according to accuracy using a fourth NEWFM;
Input the input features to a first neural network with weighted fuzzy membership function (NEWFM),
Categorize into a first class and a second class according to a class of records of the input features output using the first NEWFM,
Input output features included in the first class to a second NEWFM, input output features included in the second class to a third NEWFM,
Calculating first output data using the second NEWFM, calculating second output data using the third NEWFM,
A processor that calculates the accuracy of the class of records of the input features using the first output data and the second output data;
Containing,
Classifier using multi-layer weighted fuzzy membership function-based deep neural network.
삭제delete 제8항에 있어서,
상기 프로세서는,
상기 입력 특징들의 레코드들의 클래스에 기반하여 상기 제1 NEWFM에 의해 출력된 출력 특징들의 클래스들을 비교하여, 상기 출력 특징들을 제1 클래스와 제2 클래스로 분류하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
The method of claim 8,
The processor,
Compare the classes of output features output by the first NEWFM based on the class of records of the input features, classifying the output features into a first class and a second class,
Classifier using multi-layer weighted fuzzy membership function-based deep neural network.
제8항에 있어서,
상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고,
상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력되는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
The method of claim 8,
The first NEWFM, the second NEWFM, and the third NEWFM are included in one of the learning units of the first learning layer,
The first output data and the second output data are input to one of the learning units of the second learning layer,
Classifier using multi-layer weighted fuzzy membership function-based deep neural network.
제11항에 있어서,
상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많은,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
The method of claim 11,
The number of learning units of the first learning layer is greater than the number of learning units of the second learning layer,
Classifier using multi-layer weighted fuzzy membership function-based deep neural network.
제8항에 있어서,
상기 산출된 제1 출력 데이터는, 상기 제1 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들(takagi-sugeno defuzzification values)을 포함하고,
상기 산출된 제2 출력 데이터는, 상기 제2 클래스에 포함된 출력 특징들에 대응되는 타카기-수게노 역 퍼지값들을 포함하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
The method of claim 8,
The calculated first output data includes Takagi-Sugeno defuzzification values corresponding to output features included in the first class,
The calculated second output data includes Takagi-Sugeno inverse purge values corresponding to output features included in the second class.
Classifier using multi-layer weighted fuzzy membership function-based deep neural network.
제8항에 있어서,
상기 프로세서는,
상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들의 레코드들의 클래스의 정확도를 산출하는,
멀티레이어 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치.
The method of claim 8,
The processor,
Inputting the first output data and the second output data into a fifth NEWFM to calculate an accuracy of the class of records of the input characteristics,
Classifier using multi-layer weighted fuzzy membership function-based deep neural network.
KR1020190036547A 2019-03-29 2019-03-29 A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function KR102056704B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190036547A KR102056704B1 (en) 2019-03-29 2019-03-29 A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190036547A KR102056704B1 (en) 2019-03-29 2019-03-29 A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function

Publications (1)

Publication Number Publication Date
KR102056704B1 true KR102056704B1 (en) 2020-01-22

Family

ID=69368432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190036547A KR102056704B1 (en) 2019-03-29 2019-03-29 A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function

Country Status (1)

Country Link
KR (1) KR102056704B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883185B1 (en) * 2007-06-29 2009-02-13 장형종 System and Method for Detecting Abnormality of Biosignal using Neural Network with Weighted Fuzzy Membership Funtions
KR20120094811A (en) * 2011-02-17 2012-08-27 (의료)길의료재단 A shockable signal detection method of automated external defibrillator using neural network with weighted fuzzy membership function
KR101330268B1 (en) * 2012-09-12 2013-11-15 가천대학교 산학협력단 Method for building emotional-speech recognition model by using neuro-fuzzy network with a weighted fuzzy membership function
KR20150050041A (en) * 2013-10-31 2015-05-08 가천대학교 산학협력단 Genes selection method and system using fussy neural network
KR101901307B1 (en) * 2017-12-18 2018-09-21 가천대학교 산학협력단 Method, apparatus and computer-readable recording medium for classifying classes using deep neural network with weighted fuzzy membership function
KR101950395B1 (en) 2017-09-25 2019-02-20 (주)신테카바이오 Method for deep learning-based biomarker discovery with conversion data of genome sequences

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883185B1 (en) * 2007-06-29 2009-02-13 장형종 System and Method for Detecting Abnormality of Biosignal using Neural Network with Weighted Fuzzy Membership Funtions
KR20120094811A (en) * 2011-02-17 2012-08-27 (의료)길의료재단 A shockable signal detection method of automated external defibrillator using neural network with weighted fuzzy membership function
KR101330268B1 (en) * 2012-09-12 2013-11-15 가천대학교 산학협력단 Method for building emotional-speech recognition model by using neuro-fuzzy network with a weighted fuzzy membership function
KR20150050041A (en) * 2013-10-31 2015-05-08 가천대학교 산학협력단 Genes selection method and system using fussy neural network
KR101950395B1 (en) 2017-09-25 2019-02-20 (주)신테카바이오 Method for deep learning-based biomarker discovery with conversion data of genome sequences
KR101901307B1 (en) * 2017-12-18 2018-09-21 가천대학교 산학협력단 Method, apparatus and computer-readable recording medium for classifying classes using deep neural network with weighted fuzzy membership function

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Lee, Sang-Hong. Feature selection based on the center of gravity of BSWFMs using NEWFM. Engineering Applications of Artificial Intelligence 45. 2015. *
Lim, Joon S. Finding features for real-time premature ventricular contraction detection using a fuzzy neural network system. IEEE Transactions on Neural Networks 20.3. 2009. *

Similar Documents

Publication Publication Date Title
CN107273925B (en) Lung parenchyma CT image processing device based on local receptive field and semi-supervised depth self-coding
US20160196479A1 (en) Image similarity as a function of weighted descriptor similarities derived from neural networks
CN109783666B (en) Image scene graph generation method based on iterative refinement
Caelli et al. Modularity in neural computing
KR102306658B1 (en) Learning method and device of generative adversarial network for converting between heterogeneous domain data
Doukim et al. Combining neural networks for skin detection
Suganthe et al. Diagnosis of Alzheimer's disease from brain magnetic resonance imaging images using deep learning algorithms
KR101901307B1 (en) Method, apparatus and computer-readable recording medium for classifying classes using deep neural network with weighted fuzzy membership function
CN112753039A (en) System and method for using deep learning networks over time
US5175796A (en) Neural system of classification and classification method using such a system
Zeng et al. Learning a wafer feature with one training sample
KR102056704B1 (en) A method and apparatus for classifying class using multi-layer neural network with weighted fuzzy membership function
KR102161534B1 (en) A method and apparatus for classifying class using sub-pattern learning and refine learning through neural network with weighted fuzzy membership function
JP3043539B2 (en) neural network
Kung et al. Synergistic modeling and applications of hierarchical fuzzy neural networks
Tumer Linear and order statistics combiners for reliable pattern classification
KR102029181B1 (en) A method and apparatus for selecting feature using neural network with weighted fuzzy membership function
Guo et al. Feature selection using multiple auto-encoders
CN115131573A (en) Brain tumor image feature extraction method and system
Meschino et al. Using SOM as a tool for automated design of clustering systems based on fuzzy predicates
Shankar et al. An intelligent hierarchical residual attention learning‐based conjoined twin neural network for Alzheimer's stage detection and prediction
Ahlawat et al. Handwritten digit recognition using adaptive neuro-fuzzy system and ranked features
del-Hoyo et al. Supervised classification with associative SOM
Moh'd Alia et al. A novel image segmentation algorithm based on harmony fuzzy search algorithm
El Fouki et al. Towards an improved classification model based on deep Learning and nearest rules strategy

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant