WO2021091052A1 - 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치 - Google Patents

가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치 Download PDF

Info

Publication number
WO2021091052A1
WO2021091052A1 PCT/KR2020/010587 KR2020010587W WO2021091052A1 WO 2021091052 A1 WO2021091052 A1 WO 2021091052A1 KR 2020010587 W KR2020010587 W KR 2020010587W WO 2021091052 A1 WO2021091052 A1 WO 2021091052A1
Authority
WO
WIPO (PCT)
Prior art keywords
newfm
features
input
class classification
instance
Prior art date
Application number
PCT/KR2020/010587
Other languages
English (en)
French (fr)
Inventor
임준식
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Publication of WO2021091052A1 publication Critical patent/WO2021091052A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present invention relates to a class classification method and apparatus, and more particularly, to a class classification method and apparatus using sub-pattern learning and detailed learning through a deep neural network based on a weighted fuzzy membership function.
  • Neural Network is a structure adopted by computers to solve problems in a way similar to how humans handle problems through the brain.
  • neurons as a mathematical model are interconnected to form a network, it is a neural network or artificial It is called an Artificial Neural Network.
  • the neural network acts as a processor for each neuron to operate independently, it has excellent parallelism, and because information is distributed across many connecting lines, even if a problem occurs in some neurons, it does not affect the entire system, so fault tolerance tolerance), and the ability to learn about a given environment.
  • the present invention was created to solve the above-described problem, and provides a class classification method and apparatus using sub-pattern learning and detailed learning through a neural network with weighted fuzzy membership function (NEWFM). For that purpose.
  • NAWFM weighted fuzzy membership function
  • the present invention provides a class classification method and apparatus for classifying a plurality of instances of features output from a first NEWFM by inputting input features into a misclassified instance (MCI) and a correctly classified instance (CCI). The purpose.
  • the present invention provides a class classification method and apparatus for performing sub-pattern learning and refine learning by inputting MCI and CCI to the second NEWFM and the third NEWFM, respectively. It is for that purpose.
  • a class classification method includes (a) a first weighted fuzzy membership function-based neural network with weighted fuzzy input features selected from input data. membership function, NEWFM); (b) classifying a plurality of instances of the output features output from the first NEWFM into a first class or a second class; (c) dividing the plurality of instances into a first instance group and a second instance group according to the classification result; (d) inputting output features corresponding to the first instance group to a second NEWFM, and inputting output features corresponding to the second instance group to a third NEWFM; And (e) calculating first output data using the second NEWFM and calculating second output data using the third NEWFM.
  • NEWFM membership function
  • the class classification method includes the steps of dividing the input data into a plurality of division groups before the step (a); Extracting voxels for input data included in each of the plurality of division groups; Calculating an average voxel from the voxels; Extracting a plurality of features from the average voxel; And selecting input groups from among the plurality of division groups and the input features from among the plurality of features according to accuracy using a fourth NEWFM.
  • step (c) at least one instance having a class classification result that is not the same as the plurality of instances for the input features among the plurality of instances for the output features is selected as the first instance. Dividing into groups; And dividing at least one instance having the same class classification result as the plurality of instances of the input features among the plurality of instances of the output features into the second instance group.
  • the first NEWFM, the second NEWFM, and the third NEWFM are included in one of learning units of a first learning layer, and the first output data and the second output data are 2 It may be input to one of the learning units of the learning layer.
  • the number of learning units of the first learning layer may be greater than the number of learning units of the second learning layer.
  • the classified first instance group may include a misclassified instance (MCI), and the classified second instance group may include a correctly classified instance (CCI).
  • MCI misclassified instance
  • CCI correctly classified instance
  • the calculated first output data includes first takagi-sugeno defuzzification values (TSD) values corresponding to the first instance group, and the calculated second output The data may include second Takagi-Sugeno inverse fuzzy values corresponding to the second instance group.
  • TSD takagi-sugeno defuzzification values
  • the first output data further includes the first instance group having the same class classification result as a plurality of instances of the input features, and the second output data is The second instance group having the same class classification result as the plurality of instances of may be further included.
  • the class classification method includes the steps of, after step (e), inputting the first output data and the second output data to a fifth NEWFM to calculate class classification accuracy for the input features; It may further include.
  • the class classification apparatus inputs input features selected from the input data into a first weighted fuzzy membership function-based neural network with weighted fuzzy membership function (NEWFM), and outputs from the first NEWFM.
  • NAWFM weighted fuzzy membership function-based neural network with weighted fuzzy membership function
  • Classify a plurality of instances of the output features into a first class or a second class classify the plurality of instances into a first instance group and a second instance group according to the classification result, and to the first instance group
  • Input corresponding output features to the second NEWFM input the output features corresponding to the second instance group to a third NEWFM, calculate first output data using the second NEWFM, and calculate the third NEWFM.
  • It may include; a control unit that calculates the second output data by using.
  • control unit divides the input data into a plurality of division groups, extracts voxels for input data included in each of the plurality of division groups, and calculates an average voxel from the voxels. ) Is calculated, a plurality of features are extracted from the average voxel, and input groups among the plurality of division groups and the input features among the plurality of features may be selected according to accuracy using the fourth NEWFM.
  • control unit divides at least one instance having a class classification result that is not the same as a plurality of instances of the input features among a plurality of instances of the output features into the first instance group And, among the plurality of instances of the output features, at least one instance having the same class classification result as the plurality of instances of the input features may be classified into the second instance group.
  • the first NEWFM, the second NEWFM, and the third NEWFM are included in one of learning units of a first learning layer, and the first output data and the second output data are 2 It may be input to one of the learning units of the learning layer.
  • the number of learning units of the first learning layer may be greater than the number of learning units of the second learning layer.
  • the classified first instance group may include a misclassified instance (MCI), and the classified second instance group may include a correctly classified instance (CCI).
  • MCI misclassified instance
  • CCI correctly classified instance
  • the calculated first output data includes first takagi-sugeno defuzzification values (TSD) values corresponding to the first instance group, and the calculated second output The data may include second Takagi-Sugeno inverse fuzzy values corresponding to the second instance group.
  • TSD takagi-sugeno defuzzification values
  • the first output data further includes the first instance group having the same class classification result as a plurality of instances of the input features, and the second output data is The second instance group having the same class classification result as the plurality of instances of may be further included.
  • control unit may calculate class classification accuracy for the input features by inputting the first output data and the second output data to the fifth NEWFM.
  • input features are input and a plurality of instances of features output from the first NEWFM are classified into MCI and CCI, and MCI and CCI are respectively input to the second NEWFM and the third NEWFM.
  • FIG. 1 is a diagram illustrating a method of operating a class classification apparatus using sub-pattern learning and detailed learning through a deep neural network based on a weighted fuzzy membership function according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a class classification structure using a deep neural network based on a weighted fuzzy membership function according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing the structure of a learning unit according to an embodiment of the present invention.
  • 4A is a diagram illustrating a class classification process using a deep neural network based on a weighted fuzzy membership function according to an embodiment of the present invention.
  • 4B is a diagram illustrating a process of selecting input features from input data according to an embodiment of the present invention.
  • 5A to 5D are diagrams showing examples of class classification results according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a functional configuration of a class classification apparatus according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a method of operating a class classification apparatus using sub-pattern learning and detailed learning through a deep neural network based on a weighted fuzzy membership function according to an embodiment of the present invention.
  • step S01 is a step of inputting input features to the first NEWFM.
  • Step S103 is a step of classifying a plurality of instances of the output features output from the first NEWFM into a first class or a second class.
  • Step S105 is a step of dividing a plurality of instances into a first instance group and a second instance group according to the classification result.
  • At least one instance having a class classification result that is not the same as a plurality of instances of input features may be classified into the first instance group.
  • At least one instance having the same class classification result as a plurality of instances of input features may be classified into the second instance group.
  • step S107 output features corresponding to the first instance group are input to the second NEWFM, and output features corresponding to the second instance group are input to the third NEWFM.
  • Step S109 is a step of calculating first output data using the second NEWFM and calculating second output data using the third NEWFM.
  • the first output data may include first takagi-sugeno defuzzification (TSD) values corresponding to the first instance group. Also, the first output data may further include a first instance group having the same class classification result as a plurality of instances of the input features.
  • TSD takagi-sugeno defuzzification
  • the second output data may include second Takagi-Sugeno inverse fuzzy values corresponding to the second instance group. Also, the second output data may further include a second instance group having the same class classification result as the plurality of instances of the input features.
  • input features may be calculated from the input data using the fourth NEWFM.
  • step S109 the first output data and the second output data are input to the fifth NEWFM, and class classification accuracy for the input features may be calculated.
  • the first NEWFM, the second NEWFM and the third NEWFM may be included in one of the learning units of the first learning layer.
  • the first output data and the second output data may be input to one of the learning units of the second learning layer.
  • the number of learning units of the first learning layer may be greater than the number of learning units of the second learning layer.
  • the learning unit may be referred to as a zoom-in learning unit (ZLU) or a term having an equivalent technical meaning.
  • ZLU zoom-in learning unit
  • FIG. 2 is a diagram illustrating a class classification structure using a deep neural network based on a weighted fuzzy membership function according to an embodiment of the present invention.
  • the weighted fuzzy membership function-based deep neural network may include an input layer 210, at least one learning layer 220, and an output layer 230.
  • the input layer 210 may input input characteristics for each input group selected from input data.
  • the learning layer 220 may be composed of at least one learning unit.
  • each learning unit 300 may include a first NEWFM 310, a second NEWFM 320, and a third NEWFM 330.
  • input characteristics for each input group selected from the input data may be input to the first NEWFM 310.
  • the first NEWFM 310 may be used to perform standard binary classification.
  • the first instance group Thereafter, among the plurality of instances of the output features output from the first NEWFM 310, at least one instance having a class classification result that is not the same as the plurality of instances of the input features is selected as the first instance group. Can be distinguished.
  • the first instance group may be referred to as a misclassified instance (MCI) or a term having an equivalent technical meaning.
  • labels 2, 1, 2, 1, 2, and 1 are assigned to each of a plurality of instances 1, 2, 3, 4, 5, and 6 for input features.
  • the first instance group may include instances 1, 4, and 5 having a class classification result that is not the same as a plurality of instances for input features. This is because labels 1, 2, and 1 are assigned to instances 1, 4, and 5, respectively, of the output features output from the first NEWFM 310.
  • the second instance group may be referred to as CCI (correctly classified instance) or a term having an equivalent technical meaning.
  • the first One instance group may include instances 2, 3, and 6 having the same class classification result as multiple instances for input features. This is because labels 1, 2, and 1 are assigned to instances 2, 3, and 6, respectively, for the output features output from the first NEWFM 310.
  • output features corresponding to the first instance group may be input to the second NEWFM 320, and output features corresponding to the second instance group may be input to the third NEWFM 330.
  • the second NEWFM 320 may be used for sub-pattern learning or a learning method having a technical meaning equivalent thereto.
  • the third NEWFM 330 may be used for refine learning or a learning method having a technical meaning equivalent thereto.
  • first output data may be calculated using the second NEWFM 320
  • second output data may be calculated using the third NEWFM 330. That is, two sub-patterns and refined defuzzified outputs may be generated from the second NEWFM 320 and the third NEWFM 330.
  • each of the second NEWFM 320 and the third NEWFM 330 may store the TSD in a TSD column of the output of the learning unit 300.
  • the TSD may be stored only when the number of the first instance group (eg, MCI) or the second instance group (eg, CCI) matches the instance number of the output of the learning unit 300.
  • S 1 , S 4 and S 5 may be stored in the TSD column.
  • S 2 , S 3, and S 6 may be stored in the TSD column for each of instances 2, 3 and 6 of the second instance group.
  • the learning layer 220 may be composed of at least one layer.
  • the learning layer 220 is composed of two layers, but the number of layers is not limited.
  • the first learning layer includes four learning units, and outputs of the four learning units of the first learning layer may be input as inputs to the two learning units of the second learning layer.
  • the second learning layer includes two learning units, and outputs of the two learning units of the second learning layer may be input to the fifth NEWFM of the output layer 230.
  • the output layer 230 may output class classification accuracy for input features by using the fifth NEWFM to which the first output data and the second output data are input.
  • the first output data and the second output data are produced until a predetermined accuracy is reached, and then the next learning layer (
  • the learning layer 220 may be configured by inputting it to the fifth NEWFM of 220).
  • the output layer 230 may classify a class for input features into a first class or a second class by using the fifth NEWFM to which the first output data and the second output data are input.
  • the first output data and the second output data up to the final output layer 230 are input to the fifth NEWFM, Classes for features may be classified into a first class or a second class.
  • a class classification structure using a deep neural network based on a weighted fuzzy membership function may be referred to as a zoom-in neural network (ZNN) or a term having an equivalent technical meaning.
  • ZNN zoom-in neural network
  • the learning unit 300 may reduce a learning load through an input group for input features.
  • the learning unit 300 when activating or suppressing the learning unit 300 during the learning process, the learning unit 300 can be flexibly removed, added, or switched, so the neural network The functional connection pattern of can be found.
  • the human brain learning inference from simple data It can follow complex cognitive processes.
  • an efficient learning method is provided by removing a vanishing gradient problem through feedforward learning without backpropagation. Can be removed.
  • 4A is a diagram illustrating a class classification process using a deep neural network based on a weighted fuzzy membership function according to an embodiment of the present invention.
  • 4B is a diagram illustrating a process of selecting input features from input data according to an embodiment of the present invention.
  • the input data division step 410 may divide input data into a plurality of division groups according to input characteristics. For example, when the input data is a brain image, the brain image may be divided into a plurality of brain regions according to functions.
  • the feature selection step 420 may include a voxel extraction step 422 and a feature extraction step 424.
  • voxels for input data included in each division group may be extracted, and an average voxel may be calculated from the extracted voxels.
  • the basic unit of the input data may be a voxel, which is a small cube.
  • each voxel may have multiple values according to the time series of input data. Accordingly, one average voxel can be obtained from a plurality of voxels according to the time series.
  • the feature extraction step 424 may extract a plurality of features from the average voxel. For example, a Haar wavelet feature can be extracted from an average voxel using coefficients d3, d4, and a4. In addition, graphic features can be extracted from the average voxel.
  • graphic features can be represented as shown in Table 1 below.
  • input groups from among a plurality of division groups and input features from among a plurality of features may be selected according to accuracy using the fourth NEWFM.
  • some of the plurality of segmentation groups with high accuracy may be selected as the input group and may be selected as input features among the plurality of features.
  • each input group having a selected input characteristic is used as an input to a class classification structure using a deep neural network based on a weighted fuzzy membership function according to various embodiments of the present invention to classify a class for an input group. can do.
  • the extracted 42 features are input to the 4th NEWFM 520 to select 16 brain regions with the highest accuracy and 42 input features. I can.
  • the selected input groups may be sorted and grouped according to accuracy. For example, 16 brain regions are grouped into 4 groups, and each group may consist of 4 brain regions.
  • each step of FIGS. 4A to 4B may be performed by a class classification apparatus according to various embodiments of the present disclosure.
  • 5A to 5D are diagrams showing examples of class classification results according to an embodiment of the present invention.
  • the input data is fMRI for 34 Alzheimer disease (AD) patients, 89 mild cognitive impairment (MCI) patients, and 45 normal control (NC) humans in the Alzheimer's disease Neuroimaging initiative (ADNI) database. May contain data sets.
  • the fMRI data set may include a 4D data set including a 3D brain image with a time series.
  • AAL anatomical automatic labeling
  • the best results can be obtained by using 16 regions in ZNN.
  • the selected area as shown in Table 3 may be different for each experiment.
  • FIG. 5D it can be seen that seven regions overlap in all three experiments. This may mean that 7 areas are used for 3 classification experiments and show higher accuracy in classification.
  • AD NC and MCI classification
  • the positions of 7 overlapping areas can be identified. Therefore, through the experiment, we can confirm that the seven areas have an important relationship in the experiment and classification.
  • FIG. 6 is a diagram showing a functional configuration of a class classification apparatus 600 according to an embodiment of the present invention.
  • the class classification apparatus 600 may include a control unit 610, a communication unit 620, and a storage unit 630.
  • the controller 610 may input input features selected from the input data to the first NEWFM.
  • controller 610 may classify a plurality of instances of the output features output from the first NEWFM into a first class or a second class.
  • controller 610 may classify a plurality of instances into a first instance group and a second instance group according to the classification result.
  • controller 610 may input output features corresponding to the first instance group to the second NEWFM, and input output features corresponding to the second instance group to the third NEWFM.
  • controller 610 may calculate first output data using the second NEWFM and calculate second output data using the third NEWFM.
  • the controller 610 may include at least one processor or a micro processor, or may be a part of a processor. Also, the control unit 610 may be referred to as a communication processor (CP).
  • CP communication processor
  • the controller 610 may control each operation of the class classification apparatus 600 using a deep neural network based on a weighted fuzzy membership function according to various embodiments of the present disclosure.
  • the communication unit 620 may receive input data from the outside through a wired communication network or a wireless communication network.
  • the communication unit 620 may include at least one of a wired communication module and a wireless communication module. All or part of the communication unit 620 may be referred to as a'transmitter', a'receiver', or a'transceiver'.
  • the storage unit 630 may store input data. In one embodiment, the storage unit 630 may store input data transmitted through an offline means or a wireless communication network.
  • the storage unit 630 may be formed of a volatile memory, a nonvolatile memory, or a combination of a volatile memory and a nonvolatile memory. In addition, the storage unit 630 may provide stored data according to the request of the control unit 610.
  • the class classification apparatus 600 may include a communication unit 610, a storage unit 620, and a control unit 630.
  • the class classification apparatus 600 since the configurations described in FIG. 6 are not essential, the class classification apparatus 600 may be implemented as having more or fewer configurations than those described in FIG. 6. have.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치에 관한 것이다. 본 발명의 일 실시예에 따른 클래스 분류 방법은 (a) 입력 데이터들로부터 선택된 입력 특징들(features)을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하는 단계; (b) 상기 제1 NEWFM으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들을 제1 클래스 또는 제2 클래스로 분류하는 단계; (c) 상기 분류 결과에 따라 상기 다수의 인스턴스들을 제1 인스턴스 그룹과 제2 인스턴스 그룹으로 구분하는 단계; (d) 상기 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM에 입력하는 단계; 및 (e) 상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 단계;를 포함할 수 있다.

Description

가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치
본 발명은 클래스 분류 방법 및 장치에 관한 것으로, 더욱 상세하게는 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치에 관한 것이다.
신경망(Neural Network)은 인간이 뇌를 통해 문제를 처리하는 방법과 비슷한 방법으로 문제를 해결하기 위해 컴퓨터에서 채택하고 있는 구조로서, 수학적 모델로서의 뉴런이 상호 연결되어 네트워크를 형성할 때 이를 신경망 또는 인공 신경망(Artificial Neural Network)이라 한다.
신경망은 각 뉴런이 독립적으로 동작하는 처리기의 역할을 하기 때문에 병렬성(Parallelism)이 뛰어나고, 많은 연결선에 정보가 분산되어 있기 때문에 몇몇 뉴런에 문제가 발생하더라도 전체 시스템에 큰 영향을 주지 않으므로 결함 허용(fault tolerance) 능력이 있으며, 주어진 환경에 대한 학습 능력이 있다.
이와 같은 특성 때문에 인공 지능 분야의 문제 해결에 이용되고 있으며, 질병 인식, 문자 인식, 음성 인식, 분류, 진단, 예측 등 여러 분야에서 이용되고 있다.
종래에는 딥러닝과 같은 인공지능 기술을 이용한 질병 인식 모델 생성 방법이 개시되었다. 종래의 질병 인식 모델 생성 방법은 입력 데이터로부터 특징(feature)을 추출하고, 학습한 결과를 통해 해당 질병의 감염 여부를 분류하였다. 다만, 질병 감염 여부의 정확도를 개선하기 위한 방안은 개발이 미흡한 실정이다.
본 발명은 전술한 문제점을 해결하기 위하여 창출된 것으로, 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치를 제공하는 것을 그 목적으로 한다.
또한, 본 발명은 입력 특징들을 입력하여 제1 NEWFM으로부터 출력된 특징들에 대한 다수의 인스턴스들을 MCI(misclassified instance)와 CCI(correctly classified instance)로 구분하기 위한 클래스 분류 방법 및 장치를 제공하는 것을 그 목적으로 한다.
또한, 본 발명은 MCI와 CCI를 제2 NEWFM과 제3 NEWFM에 각각 입력하여, 서브 패턴 학습(sub-pattern learning)과 세부 학습(refine learning)을 수행하기 위한 클래스 분류 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상기한 목적들을 달성하기 위하여, 본 발명의 일 실시예에 따른 클래스 분류 방법은 (a) 입력 데이터들로부터 선택된 입력 특징들(features)을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하는 단계; (b) 상기 제1 NEWFM으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들을 제1 클래스 또는 제2 클래스로 분류하는 단계; (c) 상기 분류 결과에 따라 상기 다수의 인스턴스들을 제1 인스턴스 그룹과 제2 인스턴스 그룹으로 구분하는 단계; (d) 상기 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM에 입력하는 단계; 및 (e) 상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 단계;를 포함할 수 있다.
실시예에서, 상기 클래스 분류 방법은 상기 (a) 단계 이전에, 상기 입력 데이터들을 다수의 분할 그룹으로 분할하는 단계; 상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하는 단계; 상기 복셀들로부터 평균 복셀(average voxel)을 산출하는 단계; 상기 평균 복셀로부터 다수의 특징들을 추출하는 단계; 및 제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 상기 입력 특징들을 선택하는 단계;를 더 포함할 수 있다.
실시예에서, 상기 (c) 단계는, 상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일하지 않은 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제1 인스턴스 그룹으로 구분하는 단계; 및 상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제2 인스턴스 그룹으로 구분하는 단계;를 포함할 수 있다.
실시예에서, 상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고, 상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력될 수 있다.
실시예에서, 상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많을 수 있다.
실시예에서, 상기 구분된 제1 인스턴스 그룹은, MCI(misclassified instance)를 포함하고, 상기 구분된 제2 인스턴스 그룹은, CCI(correctly classified instance)를 포함할 수 있다.
실시예에서, 상기 산출된 제1 출력 데이터는, 상기 제1 인스턴스 그룹에 대응하는 제1 타카기-수게노 역 퍼지(takagi-sugeno defuzzification values, TSD) 값들을 포함하고, 상기 산출된 제2 출력 데이터는, 상기 제2 인스턴스 그룹에 대응하는 제2 타카기-수게노 역 퍼지값들을 포함할 수 있다.
실시예에서, 상기 제1 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제1 인스턴스 그룹을 더 포함하고, 상기 제2 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제2 인스턴스 그룹을 더 포함할 수 있다.
실시예에서, 상기 클래스 분류 방법은 상기 (e) 단계 이후에, 상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들에 대한 클래스 분류 정확도를 산출하는 단계;를 더 포함할 수 있다.
실시예에서, 클래스 분류 장치는 입력 데이터들로부터 선택된 입력 특징들(features)을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하고, 상기 제1 NEWFM으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들을 제1 클래스 또는 제2 클래스로 분류하고, 상기 분류 결과에 따라 상기 다수의 인스턴스들을 제1 인스턴스 그룹과 제2 인스턴스 그룹으로 구분하고, 상기 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM에 입력하며, 상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 제어부;를 포함할 수 있다.
실시예에서, 상기 제어부는, 상기 입력 데이터들을 다수의 분할 그룹으로 분할하고, 상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하고, 상기 복셀들로부터 평균 복셀(average voxel)을 산출하고, 상기 평균 복셀로부터 다수의 특징들을 추출하며, 제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 상기 입력 특징들을 선택할 수 있다.
실시예에서, 상기 제어부는, 상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일하지 않은 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제1 인스턴스 그룹으로 구분하고, 상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제2 인스턴스 그룹으로 구분할 수 있다.
실시예에서, 상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고, 상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력될 수 있다.
실시예에서, 상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많을 수 있다.
실시예에서, 상기 구분된 제1 인스턴스 그룹은, MCI(misclassified instance)를 포함하고, 상기 구분된 제2 인스턴스 그룹은, CCI(correctly classified instance)를 포함할 수 있다.
실시예에서, 상기 산출된 제1 출력 데이터는, 상기 제1 인스턴스 그룹에 대응하는 제1 타카기-수게노 역 퍼지(takagi-sugeno defuzzification values, TSD) 값들을 포함하고, 상기 산출된 제2 출력 데이터는, 상기 제2 인스턴스 그룹에 대응하는 제2 타카기-수게노 역 퍼지값들을 포함할 수 있다.
실시예에서, 상기 제1 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제1 인스턴스 그룹을 더 포함하고, 상기 제2 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제2 인스턴스 그룹을 더 포함할 수 있다.
실시예에서, 상기 제어부는, 상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들에 대한 클래스 분류 정확도를 산출할 수 있다.
상기한 목적들을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술될 실시예들을 참조하면 명확해질 것이다.
그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자(이하, "통상의 기술자")에게 발명의 범주를 완전하게 알려주기 위해서 제공되는 것이다.
본 발명의 일 실시예에 의하면, 입력 특징들을 입력하여 제1 NEWFM으로부터 출력된 특징들에 대한 다수의 인스턴스들을 MCI와 CCI로 구분하고, MCI와 CCI를 제2 NEWFM과 제3 NEWFM에 각각 입력하여 서브 패턴 학습과 세부 학습을 수행함으로써, 역전파(backpropagation) 없이 기울기 손실 문제(vanishing gradient problem)를 효과적으로 제거할 수 있다.
본 발명의 효과들은 상술된 효과들로 제한되지 않으며, 본 발명의 기술적 특징들에 의하여 기대되는 잠정적인 효과들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 장치의 동작 방법을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 구조를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 학습 유닛의 구조를 도시한 도면이다.
도 4a는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 과정을 도시한 도면이다.
도 4b는 본 발명의 일 실시예에 따른 입력 데이터들로부터 입력 특징들을 선택하는 과정을 도시한 도면이다.
도 5a 내지 5d는 본 발명의 일 실시예에 따른 클래스 분류 결과의 예를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 클래스 분류 장치의 기능적 구성을 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시예들을 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
청구범위에 개시된 발명의 다양한 특징들은 도면 및 상세한 설명을 고려하여 더 잘 이해될 수 있을 것이다. 명세서에 개시된 장치, 방법, 제법 및 다양한 실시예들은 예시를 위해서 제공되는 것이다. 개시된 구조 및 기능상의 특징들은 통상의 기술자로 하여금 다양한 실시예들을 구체적으로 실시할 수 있도록 하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다. 개시된 용어 및 문장들은 개시된 발명의 다양한 특징들을 이해하기 쉽게 설명하기 위한 것이고, 발명의 범위를 제한하기 위한 것이 아니다.
본 발명을 설명함에 있어서, 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.
이하, 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치를 설명한다.
도 1은 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 장치의 동작 방법을 도시한 도면이다.
도 1을 참고하면, S01 단계는 입력 특징들을 제1 NEWFM에 입력하는 단계이다.
S103 단계는 제1 NEWFM으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들을 제1 클래스 또는 제2 클래스로 분류하는 단계이다.
S105 단계는 분류 결과에 따라 다수의 인스턴스들을 제1 인스턴스 그룹과 제2 인스턴스 그룹으로 구분하는 단계이다.
일 실시예에서, 출력 특징들에 대한 다수의 인스턴스들 중 입력 특징들에 대한 다수의 인스턴스들과 동일하지 않은 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 제1 인스턴스 그룹으로 구분할 수 있다.
또한, 일 실시예에서, 출력 특징들에 대한 다수의 인스턴스들 중 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 제2 인스턴스 그룹으로 구분할 수 있다.
S107 단계는 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM에 입력하고, 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM에 입력하는 단계이다.
S109 단계는 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 단계이다.
일 실시예에서, 제1 출력 데이터는 제1 인스턴스 그룹에 대응하는 제1 타카기-수게노 역 퍼지(takagi-sugeno defuzzification, TSD) 값들을 포함할 수 있다. 또한, 제1 출력 데이터는 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 제1 인스턴스 그룹을 더 포함할 수 있다.
또한, 일 실시예에서, 제2 출력 데이터는 제2 인스턴스 그룹에 대응하는 제2 타카기-수게노 역 퍼지값들을 포함할 수 있다. 또한, 제2 출력 데이터는 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 제2 인스턴스 그룹을 더 포함할 수 있다.
일 실시예에서, S101 단계 이전에, 제4 NEWFM을 이용하여 입력 데이터들로부터 입력 특징들을 산출할 수 있다.
일 실시예에서, S109 단계 이후에, 제1 출력 데이터와 제2 출력 데이터를 제5 NEWFM에 입력하여, 입력 특징들에 대한 클래스 분류 정확도를 산출할 수 있다.
일 실시예에서, 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함될 수 있다. 이 경우, 제1 출력 데이터와 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력될 수 있다. 이 경우, 제1 학습 레이어의 학습 유닛들의 개수는 제2 학습 레이어의 학습 유닛들의 개수보다 많을 수 있다.
일 실시예에서, 학습 유닛은 ZLU(zoom-in learning unit) 또는 이와 동등한 기술적 의미를 갖는 용어로 지칭될 수 있다.
도 2는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 구조를 도시한 도면이다.
도 2를 참고하면, 가중 퍼지 소속함수 기반 심층 신경망은 입력 레이어(210), 적어도 하나의 학습 레이어(220) 및 출력 레이어(230)를 포함할 수 있다.
입력 레이어(210)는 입력 데이터로부터 선택된 각 입력 그룹에 대한 입력 특징들이 입력될 수 있다.
학습 레이어(220)는 적어도 하나의 학습 유닛(learning unit)으로 구성될 수 있다. 일 실시예에서, 도 3을 참고하면, 각 학습 유닛(300)은 제1 NEWFM(310), 제2 NEWFM(320) 및 제3 NEWFM(330)을 포함할 수 있다.
이 경우, 입력 데이터들로부터 선택된 각 입력 그룹에 대한 입력 특징들을 제1 NEWFM(310)에 입력할 수 있다. 여기서, 제1 NEWFM(310)은 표준 이진 분류(standard binary classification)를 수행하기 위해 이용될 수 있다.
이후, 제1 NEWFM(310)으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일하지 않은 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 제1 인스턴스 그룹으로 구분할 수 있다. 이 경우, 제1 인스턴스 그룹은 MCI(misclassified instance) 또는 이와 동등한 기술적 의미를 갖는 용어로 지칭될 수 있다.
예를 들어, 도 3을 참고하면, 입력 특징들에 대한 다수의 인스턴스들 1, 2, 3, 4, 5 및 6 각각에 라벨(label) 2, 1, 2, 1, 2 및 1이 할당되는 경우, 제1 인스턴스 그룹은 입력 특징들에 대한 다수의 인스턴스들과 동일하지 않은 클래스 분류 결과를 갖는 인스턴스 1, 4 및 5를 포함할 수 있다. 왜냐하면, 제1 NEWFM(310)으로부터 출력된 출력 특징들에 대한 인스턴스 1, 4 및 5 각각에 라벨 1, 2 및 1이 할당되었기 때문이다.
또한, 예를 들어, 제1 NEWFM(310)으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들 중 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 제2 인스턴스 그룹으로 구분할 수 있다. 이 경우, 제2 인스턴스 그룹은 CCI(correctly classified instance) 또는 이와 동등한 기술적 의미를 갖는 용어로 지칭될 수 있다.
예를 들어, 도 3을 참고하면, 입력 특징들에 대한 다수의 인스턴스들 1, 2, 3, 4, 5 및 6 각각에 라벨 2, 1, 2, 1, 2 및 1이 할당되는 경우, 제1 인스턴스 그룹은 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 인스턴스 2, 3 및 6을 포함할 수 있다. 왜냐하면, 제1 NEWFM(310)으로부터 출력된 출력 특징들에 대한 인스턴스 2, 3 및 6 각각에 라벨 1, 2 및 1이 할당되었기 때문이다.
이후, 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM(320)에 입력하고, 상기 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM(330)에 입력할 수 있다.
일 실시예에서, 제2 NEWFM(320)은 서브 패턴 학습(sub-pattern learning) 또는 이와 동등한 기술적 의미를 갖는 학습 방식을 위해 사용될 수 있다. 또한, 제3 NEWFM(330)은 세부 학습(refine learning) 또는 이와 동등한 기술적 의미를 갖는 학습 방식을 위해 사용될 수 있다.
이 경우, 제2 NEWFM(320)을 이용하여 제1 출력 데이터를 산출하고, 제3 NEWFM(330)을 이용하여 제2 출력 데이터를 산출할 수 있다. 즉, 제2 NEWFM(320)과 제3 NEWFM(330)으로부터 2개의 서브 패턴 및 미세 디퍼지된 출력(sub-pattern and refine defuzzified output)을 생성할 수 있다.
예를 들어, 제2 NEWFM(320)과 제3 NEWFM(330) 각각은 TSD를 학습 유닛(300)의 출력의 TSD 열(column)에 저장할 수 있다. 이 경우, TSD는 제1 인스턴스 그룹(예: MCI) 또는 제2 인스턴스 그룹(예: CCI)의 번호가 학습 유닛(300)의 출력의 인스턴스 번호와 일치하는 경우에만 저장될 수 있다.
예를 들어, 도 3을 참고하면, 제1 인스턴스 그룹의 인스턴스 1, 4 및 5 각각에 대하여 TSD 열에 S1, S4 및 S5가 저장될 수 있다. 또한, 제2 인스턴스 그룹의 인스턴스 2, 3 및 6 각각에 대하여 TSD 열에 S2, S3 및 S6가 저장될 수 있다.
일 실시예에서, 학습 레이어(220)는 적어도 하나의 레이어로 구성될 수 있다. 도 2에서는 학습 레이어(220)가 2개의 레이어로 구성되나, 레이어의 개수는 제한되지 않는다. 이 경우, 예를 들어, 제1 학습 레이어는 4개의 학습 유닛을 포함하며, 제1 학습 레이어의 4개의 학습 유닛의 출력이 제2 학습 레이어의 2개의 학습 유닛에 대한 입력으로 입력될 수 있다.
또한, 제2 학습 레이어는 2개의 학습 유닛을 포함하며, 제2 학습 레이어의 2개의 학습 유닛의 출력이 출력 레이어(230)의 제5 NEWFM으로 입력될 수 있다.
출력 레이어(230)는 제1 출력 데이터와 제2 출력 데이터가 입력된 제5 NEWFM을 이용하여, 입력 특징들에 대한 클래스 분류 정확도를 출력할 수 있다. 일 실시예에서, 본 발명에 따른 가중 퍼지 소속함수 기반 심층 신경망의 훈련 알고리즘(training algorithm)에서, 미리 결정된 정확도에 도달할 때까지 제1 출력 데이터와 제2 출력 데이터를 생산한 후 다음 학습 레이어(220)의 제5 NEWFM에 입력하여 학습 레이어(220)의 구성을 수행할 수 있다.
또한, 출력 레이어(230)는 제1 출력 데이터와 제2 출력 데이터가 입력된 제5 NEWFM을 이용하여, 입력 특징들에 대한 클래스를 제1 클래스 또는 제2 클래스로 분류할 수 있다. 일 실시예에서, 본 발명에 따른 가중 퍼지 소속함수 기반 심층 신경망의 테스트 알고리즘(test algorithm)에서, 최종 출력 레이어(230) 까지 제1 출력 데이터와 제2 출력 데이터를 제5 NEWFM에 입력하여, 입력 특징들에 대한 클래스를 제1 클래스 또는 제2 클래스로 분류할 수 있다.
일 실시예에서, 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 구조는 ZNN(zoom-in neural network) 또는 이와 동등한 기술적 의미를 갖는 용어로 지칭될 수 있다.
본 발명의 다양한 실시예들에 따른 학습 유닛(300)은 입력 특징들에 대한 입력 그룹을 통해 학습 부하를 감소시킬 수 있다. 또한, 본 발명의 다양한 실시예들에 따른 학습 유닛(300)의 경우, 학습 과정 동안 학습 유닛(300)을 활성화하거나 억제하는 경우 학습 유닛(300)을 유연하게 제거, 추가 또는 전환할 수 있으므로 신경망의 기능적 연결 패턴을 찾을 수 있다. 또한, 본 발명의 다양한 실시예들에 따른 학습 유닛(300)의 경우, 각 학습 유닛(300)에 대한 비용 함수(cost function)을 로컬로 적용할 수 있기 때문에, 간단한 데이터로부터 인간 두뇌 학습 추론의 복잡한 인지 과정을 따를 수 있다.
또한, 본 발명의 다양한 실시예들에 따른 학습 유닛(300)의 경우, 역전파(backpropagation)가 없는 피드포워드 학습(feedforward learning)을 통해 기울기 손실 문제(vanishing gradient problem)를 제거하여 효율적인 학습 방법을 제거할 수 있다.
도 4a는 본 발명의 일 실시예에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 과정을 도시한 도면이다. 도 4b는 본 발명의 일 실시예에 따른 입력 데이터들로부터 입력 특징들을 선택하는 과정을 도시한 도면이다.
도 4a 및 4b를 참고하면, 입력 데이터 분할 단계(410)는 입력 데이터들을 입력 특성에 따라 다수의 분할 그룹으로 분할할 수 있다. 예를 들어, 입력 데이터가 뇌 이미지인 경우, 뇌 이미지는 기능에 따라 다수의 뇌 영역으로 분할될 수 있다.
특징 선택 단계(420)는 복셀 추출 단계(422)와 특징 추출 단계(424)를 포함할 수 있다.
복셀 추출 단계(422)는 각 분할 그룹에 포함된 입력 데이터들에 대한 복셀들(voxels)을 추출하고, 추출된 복셀들로부터 하나의 평균 복셀을 산출할 수 있다. 여기서, 입력 데이터의 기본 단위는 작은 입방체인 복셀일 수 있다. 이 경우, 각 복셀은 입력 데이터의 시계열에 따라 다수의 값을 가질 수 있다. 따라서, 시계열에 따른 다수의 복셀로부터 하나의 평균 복셀을 획득할 수 있다.
특징 추출 단계(424)는 평균 복셀로부터 다수의 특징들을 추출할 수 있다. 예를 들어, d3, d4, a4 계수를 이용하여 평균 복셀로부터 Haar wavelet 특징을 추출할 수 있다. 또한, 평균 복셀로부터 그래픽 특징을 추출할 수 있다.
예를 들어, 그래픽 특징은 하기 <표 1>과 같이 나타낼 수 있다.
Figure PCTKR2020010587-appb-T000001
특징 선택 단계(430)는 제4 NEWFM을 이용하여 정확도에 따라 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 입력 특징들을 선택할 수 있다. 일 실시예에서, 다수의 분할 그룹 중 정확도가 높은 일부가 입력 그룹으로 선택되고 다수의 특징들 중 입력 특징들로 선택될 수 있다.
클래스 분류 단계(440)는 선택된 입력 특징을 갖는 각 입력 그룹을 본 발명의 다양한 실시예들에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 구조에 대한 입력으로 사용하여 입력 그룹에 대한 클래스를 분류할 수 있다.
예를 들어, 90개의 뇌 영역 각각에 대한 42개의 특징들을 추출한 후, 추출된 42개의 특징들을 제4 NEWFM(520)에 입력하여, 정확도가 가장 높은 16개의 뇌 영역들과 42개의 입력 특징들을 선택할 수 있다.
일 실시예에서, 선택된 입력 그룹들은 정확도에 따라 정렬되어 그룹핑될 수 있다. 예를 들어, 16개의 뇌 영역들은 4개의 그룹으로 그룹핑되며, 각 그룹은 4개의 뇌 영역으로 구성될 수 있다.
일 실시예에서, 도 4a 내지 4b의 각 단계는 본 발명의 다양한 실시예에 따른 클래스 분류 장치에 의해 수행될 수 있다.
도 5a 내지 5d는 본 발명의 일 실시예에 따른 클래스 분류 결과의 예를 도시한 도면이다.
도 5a 내지 5d를 참고하면, 입력 데이터는 ADNI(Alzheimer’s disease Neuroimaging initiative) 데이터베이스에서 34명의 AD(Alzheimer disease) 환자, 89명의 MCI(mild cognitive impairment) 환자 및 45명의 NC(normal control) 사람에 대한 fMRI 데이터 세트를 포함할 수 있다.
여기서, fMRI 데이터 세트는 시계열이 있는 3D 뇌 이미지를 포함하는 4D 데이터 세트를 포함할 수 있다. 이에, 해부학적 자동 라벨링(Anatomical Automatic Labeling, AAL) 모델을 기반으로 뇌(brain)는 90개의 기능 영역으로 나누어 질 수 있다. 각 클래스의 23개 피검체가 훈련에 사용되고 나머지 피검체는 테스트에 사용될 수 있다.
예를 들어, 실험에는 NC 사람 및 MCI 환자로부터 AD 환자의 분류, AD 환자 및 MCI 환자로부터 NC 사람의 분류 및 AD 환자 및 NC 사람으로부터 MCI 환자의 분류와 같은 3가지 분류 대상이 존재할 수 있다. 이 세 가지 실험은 AD 분류(실험 A), NC 분류(실험 B) 및 MCI 분류(실험 C)라고 지칭 될 수 있다. 세 가지 실험의 구조는 동일하며, 실험 데이터와 클래스 라벨만 다를 수 있다.
또한, 본 발명에 따른 NEWFM를 이용한 결과와 종래의 SVM 기술을 이용한 결과를 비교하면 하기 <표 2>와 같이 나타낼 수 있다. 하기 <표 2>를 참고하면, 종래의 SVM보다 본 발명에 따른 NEWFM을 이용한 경우 보다 높은 정확도의 결과를 도출함을 확인할 수 있다.
Figure PCTKR2020010587-appb-T000002
Figure PCTKR2020010587-appb-T000003
실험에서 더 높은 정확도를 얻기 위해 ZNN에서 16개 영역을 사용하면 최상의 결과를 얻을 수 있다. 상기 표 3과 같이 선택한 영역은 각 실험마다 다를 수 있다.
이 경우, 도 5d를 참고하면, 세 실험 모두에서 7개의 영역이 겹치는 것을 확인할 수 있다. 이는 7가지 영역이 3가지 분류 실험에 사용되며 분류에서 더 높은 정확도를 나타내는 것을 의미할 수 있다. AD, NC 및 MCI 분류에서 7개의 오버랩 영역의 위치를 확인할 수 있다. 따라서, 실험을 통해 우리는 7가지 영역이 실험과 분류에서 중요한 관계를 가지고 있음을 확인할 수 있다.
도 6은 본 발명의 일 실시예에 따른 클래스 분류 장치(600)의 기능적 구성을 도시한 도면이다.
도 6을 참고하면, 클래스 분류 장치(600)는 제어부(610), 통신부(620) 및 저장부(630)를 포함할 수 있다.
제어부(610)는 입력 데이터들로부터 선택된 입력 특징들을 제1 NEWFM에 입력할 수 있다.
또한, 제어부(610)는 제1 NEWFM으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들을 제1 클래스 또는 제2 클래스로 분류할 수 있다.
또한, 제어부(610)는 분류 결과에 따라 다수의 인스턴스들을 제1 인스턴스 그룹과 제2인스턴스 그룹으로 구분할 수 있다.
또한, 제어부(610)는 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM에 입력하고, 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM에 입력할 수 있다.
또한, 제어부(610)는 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 제3 NEWFM을 이용하여 제2 출력 데이터를 산출할 수 있다.
일 실시예에서, 제어부(610)는 적어도 하나의 프로세서 또는 마이크로(micro) 프로세서를 포함하거나, 또는, 프로세서의 일부일 수 있다. 또한, 제어부(610)는 CP(communication processor)라 지칭될 수 있다.
제어부(610)는 본 발명의 다양한 실시예들에 따른 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 장치(600)의 각 동작을 제어할 수 있다.
일 실시예에서, 통신부(620)는 유선 통신 네트워크 또는 무선 통신 네트워크를 통해 외부로부터 입력 데이터들을 수신할 수 있다.
일 실시예에서, 통신부(620)는 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. 통신부(620)의 전부 또는 일부는 '송신부', '수신부' 또는 '송수신부(transceiver)'로 지칭될 수 있다.
일 실시예에서, 저장부(630)는 입력 데이터들을 저장할 수 있다. 일 실시예에서, 저장부(630)는 오프라인 수단 또는 무선 통신 네트워크를 통해 전달된 입력 데이터들을 저장할 수 있다.
일 실시예에서, 저장부(630)는 휘발성 메모리, 비휘발성 메모리 또는 휘발성 메모리와 비휘발성 메모리의 조합으로 구성될 수 있다. 그리고, 저장부(630)는 제어부(610)의 요청에 따라 저장된 데이터를 제공할 수 있다.
도 6을 참고하면, 클래스 분류 장치(600)는 통신부(610), 저장부(620) 및 제어부(630)를 포함할 수 있다. 본 발명의 다양한 실시 예들에서 클래스 분류 장치(600)는 도 6에 설명된 구성들이 필수적인 것은 아니어서, 도 6에 설명된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로, 통상의 기술자라면 본 발명의 본질적인 특성이 벗어나지 않는 범위에서 다양한 변경 및 수정이 가능할 것이다.
따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술적 사상을 한정하기 위한 것이 아니라, 설명하기 위한 것이고, 이러한 실시예들에 의하여 본 발명의 범위가 한정되는 것은 아니다.
본 발명의 보호범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 이해되어야 한다.

Claims (18)

  1. (a) 입력 데이터들로부터 선택된 입력 특징들(features)을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하는 단계;
    (b) 상기 제1 NEWFM으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들을 제1 클래스 또는 제2 클래스로 분류하는 단계;
    (c) 상기 분류 결과에 따라 상기 다수의 인스턴스들을 제1 인스턴스 그룹과 제2 인스턴스 그룹으로 구분하는 단계;
    (d) 상기 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM에 입력하는 단계; 및
    (e) 상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 단계;
    를 포함하는,
    클래스 분류 방법.
  2. 제1항에 있어서,
    상기 (a) 단계 이전에,
    상기 입력 데이터들을 다수의 분할 그룹으로 분할하는 단계;
    상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하는 단계;
    상기 복셀들로부터 평균 복셀(average voxel)을 산출하는 단계;
    상기 평균 복셀로부터 다수의 특징들을 추출하는 단계; 및
    제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 상기 입력 특징들을 선택하는 단계;
    를 더 포함하는,
    클래스 분류 방법.
  3. 제1항에 있어서,
    상기 (c) 단계는,
    상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일하지 않은 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제1 인스턴스 그룹으로 구분하는 단계; 및
    상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제2 인스턴스 그룹으로 구분하는 단계;
    를 포함하는,
    클래스 분류 방법.
  4. 제1항에 있어서,
    상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고,
    상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력되는,
    클래스 분류 방법.
  5. 제4항에 있어서,
    상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많은,
    클래스 분류 방법.
  6. 제1항에 있어서,
    상기 구분된 제1 인스턴스 그룹은, MCI(misclassified instance)를 포함하고,
    상기 구분된 제2 인스턴스 그룹은, CCI(correctly classified instance)를 포함하는,
    클래스 분류 방법.
  7. 제1항에 있어서,
    상기 산출된 제1 출력 데이터는, 상기 제1 인스턴스 그룹에 대응하는 제1 타카기-수게노 역 퍼지(takagi-sugeno defuzzification values, TSD) 값들을 포함하고,
    상기 산출된 제2 출력 데이터는, 상기 제2 인스턴스 그룹에 대응하는 제2 타카기-수게노 역 퍼지값들을 포함하는,
    클래스 분류 방법.
  8. 제7항에 있어서,
    상기 제1 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제1 인스턴스 그룹을 더 포함하고,
    상기 제2 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제2 인스턴스 그룹을 더 포함하는,
    클래스 분류 방법.
  9. 제1항에 있어서,
    상기 (e) 단계 이후에,
    상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들에 대한 클래스 분류 정확도를 산출하는 단계;
    를 더 포함하는,
    클래스 분류 방법.
  10. 입력 데이터들로부터 선택된 입력 특징들(features)을 제1 가중 퍼지 소속함수 기반 심층 신경망(neural network with weighted fuzzy membership function, NEWFM)에 입력하고,
    상기 제1 NEWFM으로부터 출력된 출력 특징들에 대한 다수의 인스턴스들을 제1 클래스 또는 제2 클래스로 분류하고,
    상기 분류 결과에 따라 상기 다수의 인스턴스들을 제1 인스턴스 그룹과 제2 인스턴스 그룹으로 구분하고,
    상기 제1 인스턴스 그룹에 대응하는 출력 특징들을 제2 NEWFM에 입력하고, 상기 제2 인스턴스 그룹에 대응하는 출력 특징들을 제3 NEWFM에 입력하며,
    상기 제2 NEWFM을 이용하여 제1 출력 데이터를 산출하고, 상기 제3 NEWFM을 이용하여 제2 출력 데이터를 산출하는 제어부;
    를 포함하는,
    클래스 분류 장치.
  11. 제10항에 있어서,
    상기 제어부는,
    상기 입력 데이터들을 다수의 분할 그룹으로 분할하고,
    상기 다수의 분할 그룹 각각에 포함된 입력 데이터에 대한 복셀(voxel)들을 추출하고,
    상기 복셀들로부터 평균 복셀(average voxel)을 산출하고,
    상기 평균 복셀로부터 다수의 특징들을 추출하며,
    제4 NEWFM을 이용하여 정확도에 따라 상기 다수의 분할 그룹 중 입력 그룹들과 다수의 특징들 중 상기 입력 특징들을 선택하는,
    클래스 분류 장치.
  12. 제10항에 있어서,
    상기 제어부는,
    상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일하지 않은 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제1 인스턴스 그룹으로 구분하고,
    상기 출력 특징들에 대한 다수의 인스턴스들 중 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 적어도 하나의 인스턴스를 상기 제2 인스턴스 그룹으로 구분하는,
    클래스 분류 장치.
  13. 제10항에 있어서,
    상기 제1 NEWFM, 제2 NEWFM 및 제3 NEWFM은, 제1 학습 레이어의 학습 유닛들(learning units) 중 하나에 포함되고,
    상기 제1 출력 데이터와 상기 제2 출력 데이터는, 제2 학습 레이어의 학습 유닛들 중 하나에 입력되는,
    클래스 분류 장치.
  14. 제13항에 있어서,
    상기 제1 학습 레이어의 학습 유닛들의 개수는, 상기 제2 학습 레이어의 학습 유닛들의 개수보다 많은,
    클래스 분류 장치.
  15. 제10항에 있어서,
    상기 구분된 제1 인스턴스 그룹은, MCI(misclassified instance)를 포함하고,
    상기 구분된 제2 인스턴스 그룹은, CCI(correctly classified instance)를 포함하는,
    클래스 분류 방법.
  16. 제10항에 있어서,
    상기 산출된 제1 출력 데이터는, 상기 제1 인스턴스 그룹에 대응하는 제1 타카기-수게노 역 퍼지(takagi-sugeno defuzzification values, TSD) 값들을 포함하고,
    상기 산출된 제2 출력 데이터는, 상기 제2 인스턴스 그룹에 대응하는 제2 타카기-수게노 역 퍼지값들을 포함하는,
    클래스 분류 장치.
  17. 제16항에 있어서,
    상기 제1 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제1 인스턴스 그룹을 더 포함하고,
    상기 제2 출력 데이터는, 상기 입력 특징들에 대한 다수의 인스턴스들과 동일한 클래스 분류 결과를 갖는 상기 제2 인스턴스 그룹을 더 포함하는,
    클래스 분류 장치.
  18. 제10항에 있어서,
    상기 제어부는,
    상기 제1 출력 데이터와 상기 제2 출력 데이터를 제5 NEWFM에 입력하여, 상기 입력 특징들에 대한 클래스 분류 정확도를 산출하는,
    클래스 분류 장치.
PCT/KR2020/010587 2019-11-05 2020-08-11 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치 WO2021091052A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0140429 2019-11-05
KR1020190140429A KR102161534B1 (ko) 2019-11-05 2019-11-05 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2021091052A1 true WO2021091052A1 (ko) 2021-05-14

Family

ID=72809309

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/010587 WO2021091052A1 (ko) 2019-11-05 2020-08-11 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치

Country Status (2)

Country Link
KR (1) KR102161534B1 (ko)
WO (1) WO2021091052A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102289785B1 (ko) * 2020-12-07 2021-08-13 가천대학교 산학협력단 메타인지 딥 뉴로퍼지 네트워크의 학습 및 이를 이용한 추론방법, 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080084132A (ko) * 2007-03-15 2008-09-19 임준식 가중 퍼지 소속함수 기반 신경망을 이용한 비선형 시계열예측 모델의 추출방법
WO2009082042A1 (en) * 2007-12-21 2009-07-02 Industry University Cooperation Foundation Of Kyungwon University Nonlinear time series prediction method for weighted average defuzzification based on newfm
KR101901307B1 (ko) * 2017-12-18 2018-09-21 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체
KR101992057B1 (ko) * 2018-08-17 2019-06-24 (주)제이엘케이인스펙션 혈관 투영 영상을 이용한 뇌질환 진단 방법 및 시스템
KR102029181B1 (ko) * 2018-12-12 2019-10-07 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 이용한 특징 선택을 위한 방법 및 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101950395B1 (ko) 2017-09-25 2019-02-20 (주)신테카바이오 개체군 유전체 염기서열 및 변이의 변환데이터에 대한 인공지능 딥러닝 모델을 이용한 바이오마커 검출 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080084132A (ko) * 2007-03-15 2008-09-19 임준식 가중 퍼지 소속함수 기반 신경망을 이용한 비선형 시계열예측 모델의 추출방법
WO2009082042A1 (en) * 2007-12-21 2009-07-02 Industry University Cooperation Foundation Of Kyungwon University Nonlinear time series prediction method for weighted average defuzzification based on newfm
KR101901307B1 (ko) * 2017-12-18 2018-09-21 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 이용한 클래스 분류 방법, 장치 및 컴퓨터 판독 가능한 기록매체
KR101992057B1 (ko) * 2018-08-17 2019-06-24 (주)제이엘케이인스펙션 혈관 투영 영상을 이용한 뇌질환 진단 방법 및 시스템
KR102029181B1 (ko) * 2018-12-12 2019-10-07 가천대학교 산학협력단 가중 퍼지 소속함수 기반 심층 신경망을 이용한 특징 선택을 위한 방법 및 장치

Also Published As

Publication number Publication date
KR102161534B1 (ko) 2020-10-05

Similar Documents

Publication Publication Date Title
WO2018212494A1 (ko) 객체를 식별하는 방법 및 디바이스
WO2018217019A1 (ko) 신경망 학습 기반의 변종 악성 코드를 탐지하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
WO2018106005A1 (ko) 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2020045848A1 (ko) 세그멘테이션을 수행하는 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
WO2021246810A1 (ko) 오토인코더 및 다중 인스턴스 학습을 통한 뉴럴 네트워크 학습 방법 및 이를 수행하는 컴퓨팅 시스템
WO2020032559A2 (ko) 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 방법
WO2020071877A1 (ko) 병리 이미지 검색을 위한 시스템 및 방법
WO2020111754A9 (ko) 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
WO2010041836A2 (en) Method of detecting skin-colored area using variable skin color model
WO2021091052A1 (ko) 가중 퍼지 소속함수 기반 심층 신경망을 통한 하위 패턴 학습 및 세부 학습을 이용한 클래스 분류 방법 및 장치
WO2021010671A9 (ko) 뉴럴 네트워크 및 비국소적 블록을 이용하여 세그멘테이션을 수행하는 질병 진단 시스템 및 방법
WO2021153971A1 (ko) 비식별화된 이미지를 이용한 신경망 학습 방법 및 이를 제공하는 서버
WO2021210797A1 (ko) 의료영상 판독을 위한 인공지능 기반의 클라우드 플랫폼 시스템
WO2018143486A1 (ko) 딥러닝 분석을 위한 모듈화시스템을 이용한 컨텐츠 제공 방법
WO2022146050A1 (ko) 우울증 진단을 위한 인공지능 연합학습 방법 및 시스템
WO2019035544A1 (ko) 학습을 이용한 얼굴 인식 장치 및 방법
WO2019045147A1 (ko) 딥러닝을 pc에 적용하기 위한 메모리 최적화 방법
WO2021060748A1 (ko) 연결성 학습 장치 및 연결성 학습 방법
WO2023182702A1 (ko) 디지털 병리이미지의 인공지능 진단 데이터 처리 장치 및 그 방법
WO2020032560A2 (ko) 진단 결과 생성 시스템 및 방법
WO2020032561A2 (ko) 다중 색 모델 및 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
WO2020141907A1 (ko) 키워드에 기초하여 이미지를 생성하는 이미지 생성 장치 및 이미지 생성 방법
WO2023096011A1 (ko) 제로샷 시맨틱 분할 장치 및 방법
WO2022019355A1 (ko) 다중 페이즈 생체 이미지를 이용하여 학습된 뉴럴 네트워크를 이용한 질병 진단 방법 및 이를 수행하는 질병 진단 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20885240

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20885240

Country of ref document: EP

Kind code of ref document: A1