KR20200088699A - Low-bias classification apparatus and method therof - Google Patents
Low-bias classification apparatus and method therof Download PDFInfo
- Publication number
- KR20200088699A KR20200088699A KR1020190005334A KR20190005334A KR20200088699A KR 20200088699 A KR20200088699 A KR 20200088699A KR 1020190005334 A KR1020190005334 A KR 1020190005334A KR 20190005334 A KR20190005334 A KR 20190005334A KR 20200088699 A KR20200088699 A KR 20200088699A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- error
- classification
- transferred
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
Description
본 발명은 분류장치 및 방법에 관한 것으로, 편향성이 감소된 분류장치 및 방법에 관한 것이다.The present invention relates to a classification device and method, and to a classification device and method with reduced bias.
딥러닝(Deep learning) 기반 분류장치는 인공신경망(Artificial Neural Network)을 사용하여 입력된 데이터가 가진 속성을 판단 및 출력하는 장치를 뜻하며, 광범위한 분야에서 범용적으로 응용되고 있다.Deep learning-based classification device refers to a device that judges and outputs the properties of input data using an artificial neural network, and is widely used in a wide range of fields.
딥러닝 기반 분류장치는 다양한 방면에서 연구되고 있으나, 주로 분류의 정확도를 높이는 데에 편중되어 있어, 분류 과정을 규명하고 제어하는 연구가 미흡한 실정이다.Deep learning-based classification devices have been studied in various ways, but they are mainly focused on improving the accuracy of classification, so there is insufficient research to identify and control the classification process.
이로 인해 딥러닝 기반 분류장치는 인공신경망의 구성과 학습 방법에 따라 높은 분류 정확도를 나타낼 수 있는 반면, 분류 과정에서 입력 데이터에서 사용자가 의도하지 않은 특정 정보에 과도하게 의존하는 편향성(bias)이 발생할 가능성이 있다.Due to this, the deep learning-based classification device may exhibit high classification accuracy according to the configuration and learning method of the artificial neural network, while in the classification process, biases that excessively depend on specific information not intended by the user in the input data may occur. There is a possibility.
분류장치의 편향성 문제는 사용자의 요구에 적합한 분류를 수행하지 못하는 실용적인 문제를 발생시킬 수 있을 뿐만 아니라, 사회적, 경제적으로 민감한 속성을 판단할 때 인종, 성별 정보 등에 의존하여 윤리적인 문제로 이어질 수 있다는 문제가 있다.The biasing problem of the classification device can not only create a practical problem that does not perform classification appropriate to the user's needs, but also can lead to ethical problems depending on race, gender information, etc. when determining socially and economically sensitive attributes. there is a problem.
만일 딥러닝 기반 분류장치가 직원 채용 추천, 채무 이행 예측 또는 범죄 재발 예측과 같은 사회적, 경제적으로 민감한 속성을 판별하는 경우에, 기존에 주어진 학습 데이터를 기반으로 학습된 분류장치는 입력 데이터 중 가능한 공정성을 유지해야 하는 연령, 인종, 성별, 수입 등과 같이 윤리적으로 민감한 개인의 신상정보에 편향되어 판단하게 될 수 있다.If the deep learning-based classifier determines social and economically sensitive attributes, such as recommendations for hiring employees, predicting debt fulfillment, or predicting recurrence of crime, the classifier learned based on previously given learning data is a possible fairness among input data. It can be judged to be biased toward personal information of ethically sensitive individuals such as age, race, gender, income, etc.
일예로 딥러닝 기반 분류장치가 직원 채용 추천에 이용되어 입력 데이터를 추천 또는 비추천으로 분류하는 경우에, 추천으로 분류된 입력 데이터 중 남성에 대한 입력 데이터가 90% 이상이 되도록 과도하게 편향되어 분류할 수도 있다.As an example, when a deep learning-based classification device is used for recommending or hiring employees to classify input data as recommendation or non-recommendation, among input data classified as recommendation, input data for men is over-biased and classified to be 90% or more. It might be.
이는 분류 장치의 분류 결과를 기반으로 업무를 추진하고자 하는 사용자에게 의도하지 않은 인종 차별 및 성차별과 같은 사회적, 윤리적 이슈를 발생시킬 수 있다는 문제가 있다.This has a problem in that it is possible to generate social and ethical issues such as unintended racial discrimination and gender discrimination to users who want to promote work based on the classification result of the classification device.
본 발명의 목적은 분류 과정에서 입력 데이터의 특정 속성에 관한 편향성을 저감하여 분류를 수행할 수 있는 분류 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide a classification apparatus and method capable of performing classification by reducing bias for specific attributes of input data in a classification process.
본 발명의 다른 목적은 인종, 성별 정보와 같이 윤리적으로 민감한 속성에 대한 편향성을 저감할 수 있는 분류 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide a classification device and method capable of reducing bias for ethically sensitive attributes such as race and gender information.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 분류장치는 미리 학습된 패턴 인식 방식에 따라 다수의 속성에 대한 속성값이 포함된 입력 데이터에서 특징값을 추출하여 기지정된 차원의 잠재 공간에 전사하는 데이터 압축부; 및 상기 데이터 압축부와 별도로 미리 학습된 패턴 인식 방식에 따라 잠재 공간에 전사된 특징값을 분류하고, 분류된 특징값으로부터 분류된 데이터를 복원하는 분류부; 를 포함하고, 상기 데이터 압축부는 학습 시에 상기 잠재 공간에 전사된 특징값에서 복원되는 데이터와 상기 입력 데이터 사이의 오차인 전사 오차 및 상기 잠재 공간에 전사된 특징값에서 기지정된 속성에 대응하는 잠재 변수의 통계적 특성을 분석하여 측정된 편향성 오차가 역전파되어 학습된다.In order to achieve the above object, the classification apparatus according to an embodiment of the present invention extracts feature values from input data including attribute values for a plurality of attributes according to a pre-trained pattern recognition method, and stores them in a potential space of a predetermined dimension. A data compression unit to transfer; And a classification unit that classifies the feature values transferred to the potential space according to a pattern recognition method previously learned separately from the data compression unit, and restores the classified data from the classified feature values. The data compression unit includes a transfer error, which is an error between data restored from the feature value transferred to the potential space and the input data during learning, and a potential corresponding to a property determined from the feature value transferred to the potential space. The bias error measured by analyzing the statistical characteristics of the variables is learned by back propagating.
상기 분류 장치는 상기 데이터 압축부의 학습 시에 상기 전사 오차 및 상기 편향성 오차를 획득하기 위해 부가되는 편향 학습부; 를 더 포함하고, 상기 편향 학습부는 상기 입력 데이터(x)에서 잠재 공간에 전사된 특징값(f(x))으로부터 복원 데이터(g(f(x)))를 복원하여, 상기 입력 데이터(x)와 상기 복원 데이터(g(f(x))) 사이의 오차를 크로스엔트로피로 계산하여 상기 전사 오차를 획득하고, 잠재 공간에 전사된 특징값에서 기지정된 속성에 대응하는 잠재 변수의 평균 및 분산을 기지정된 정규 확률 분포의 평균 및 분산과 비교하여 상기 편향성 오차를 측정할 수 있다.The classification apparatus includes a bias learning unit added to acquire the transcription error and the bias error when learning the data compression unit; Further comprising, the bias learning unit restores the restored data (g(f(x))) from the feature value (f(x)) transferred to the potential space from the input data (x), the input data (x ) And the reconstructed data (g(f(x))) are computed as cross-entropy to obtain the transcription error, and the average and variance of the latent variable corresponding to the attribute determined from the characteristic value transferred to the potential space. Can be compared to the mean and variance of a given normal probability distribution to measure the bias error.
상기 편향 학습부는 수학식 The bias learning unit equation
(여기서 crossentropy(x, g(f(x)))는 전사 오차를 계산하는 크로스엔트로피 함수를 나타내고, 은 각각 평균(, 0)과 분산(, I)을 갖는 2개의 정규 분포(, ) 형태로 잠재 공간에 전사된 특징값의 지정된 속성에 대한 잠재 변수와 정규 확률 분포를 갖는 기지정된 기준 잠재 변수 사이의 정보량 차이인 편향성 오차를 계산하는 KL 다이버전스(Kullback-Leibler divergence)를 나타낸다.) 에 따른 손실 함수(L1)의 계산 결과가 기지정된 제1 기준 손실값 이하가 되도록 상기 데이터 압축부를 학습시킬 수 있다.(Where crossentropy(x, g(f(x))) represents the cross-entropy function for calculating the transcription error, Mean each ( , 0) and variance ( , I) with two normal distributions ( , ) Represents the KL divergence that calculates the bias error, which is the difference in the amount of information between the latent variable for a specified attribute of a feature value transferred to the latent space and a known reference latent variable with a normal probability distribution.) The data compression unit may be trained such that the calculation result of the loss function L 1 according to is equal to or less than a predetermined first reference loss value.
상기 분류부는 상기 데이터 압축부에 의해 잠재 공간에 전사된 특징값(f(x))에 대해 분류 복원한 결과(h(f(x))와 기지정된 분류값(y) 사이의 오차에 대한 손실 함수(L2)가 수학식 The classification unit loses the error between the result (h(f(x)) and the specified classification value y) of the classification and restoration of the feature value f(x) transferred to the potential space by the data compression unit. Function (L 2 ) is an equation
의 크로스엔트로피 함수로 계산되고, 손실 함수(L2)의 계산 결과가 기지정된 제2 기준 손실값 이하가 되도록 반복 학습될 수 있다.It is calculated as a cross-entropy function of, and can be repeatedly learned so that the calculation result of the loss function L 2 is equal to or less than a predetermined second reference loss value.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 분류방법은 미리 학습된 패턴 인식 방식에 따라 다수의 속성에 대한 속성값이 포함된 입력 데이터에서 특징값을 추출하여 기지정된 차원의 잠재 공간에 전사하는 단계; 및 미리 학습된 패턴 인식 방식에 따라 잠재 공간에 전사된 특징값을 분류하고, 분류된 특징값으로부터 분류된 데이터를 복원하는 단계; 를 포함하고, 상기 전사하는 단계는 이전, 학습 단계에서 상기 잠재 공간에 전사된 특징값에서 복원되는 데이터와 상기 입력 데이터 사이의 오차인 전사 오차 및 상기 잠재 공간에 전사된 특징값에서 기지정된 속성에 대응하는 잠재 변수의 통계적 특성을 분석하여 측정된 편향성 오차가 역전파되어 미리 학습된다.In order to achieve the above object, the classification method according to another embodiment of the present invention extracts feature values from input data including attribute values for a plurality of attributes according to a pre-trained pattern recognition method, and extracts a feature value into a potential space of a predetermined dimension. Transferring; And classifying the feature values transferred to the potential space according to the previously learned pattern recognition method, and restoring the classified data from the classified feature values. Including, the transfer step is a transfer error, which is an error between the data restored from the feature value transferred to the potential space in the previous and learning step, and the input data, and the attribute determined from the feature value transferred to the potential space. The bias error measured by analyzing the statistical characteristics of the corresponding potential variable is back propagated and learned in advance.
따라서, 본 발명의 실시예에 따른 분류장치 및 방법은 잠재 공간에 전사된 압축 데이터의 지정된 속성에 관한 편향을 측정하고, 편향이 저감되도록 조절하여 분류를 수행함으로써, 분류 장치의 편향 문제를 최소화할 수 있다.Therefore, the classification apparatus and method according to an embodiment of the present invention can minimize the deflection problem of the classification apparatus by measuring the deflection related to a specified attribute of the compressed data transferred to the potential space, and adjusting the deflection so that the deflection is reduced. Can.
도1 은 본 발명의 일 실시예에 따른 분류 장치의 개략적 구조를 나타낸다.
도2 는 본 실시예의 분류 장치가 편향성을 저감하는 개념을 나타낸다.
도3 은 도1 의 분류 장치를 학습시키는 개념을 나타낸다.
도4 는 본 발명의 일 실시예에 따른 분류 방법을 나타낸다.
도5 는 본 발명의 다른 실시예에 따른 분류 장치의 개략적 구조를 나타낸다.
도6 은 본 발명의 다른 실시예에 따른 분류 방법을 나타낸다.1 shows a schematic structure of a classification device according to an embodiment of the present invention.
Fig. 2 shows the concept that the classification device of this embodiment reduces the deflection.
3 shows a concept of learning the classification device of FIG. 1.
4 shows a classification method according to an embodiment of the present invention.
5 shows a schematic structure of a classification device according to another embodiment of the present invention.
6 shows a classification method according to another embodiment of the present invention.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the contents described in the accompanying drawings, which illustrate preferred embodiments of the present invention.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by explaining preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention can be implemented in various different forms, and is not limited to the described embodiments. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part “includes” a certain component, this means that other components may be further included, rather than excluding other components, unless specifically stated to the contrary. In addition, terms such as "... unit", "... group", "module", and "block" described in the specification mean a unit that processes at least one function or operation, which is hardware or software or hardware. And software.
도1 은 본 발명의 일 실시예에 따른 분류 장치의 개략적 구조를 나타내고, 도2 는 본 실시예의 분류 장치가 편향성을 저감하는 개념을 나타낸다.1 shows a schematic structure of a classification device according to an embodiment of the present invention, and FIG. 2 shows a concept in which the classification device of this embodiment reduces bias.
도1 을 참조하면, 본 실시예에 따른 분류 장치는 데이터 입력부(110), 데이터 압축부(120), 편향 조절부(130) 및 분류부(140)를 포함한다.Referring to FIG. 1, the classification device according to the present embodiment includes a
데이터 입력부(110)는 분류가 수행되어야 하는 다수의 입력 데이터를 획득한다. 여기서 다수의 입력 데이터 각각은 다수의 속성에 따른 속성값을 포함한다. 일예로 분류 장치가 소득 수준에 대한 분류 장치인 경우, 각 입력 데이터에는 다수의 속성으로 나이, 학력, 성별, 인종, 결혼 유무 등이 지정될 수 있으며, 각 속성에 따른 속성값이 포함될 수 있다.The
그리고 본 실시예에서는 입력 데이터에 포함된 다수의 속성 중 편향성을 갖지 않도록 보호된 속성으로 성별이 지정된 것으로 가정하여 설명한다. 그러나 다른 속성이 보호된 속성으로 지정될 수도 있으며, 사용자에 의해 미리 지정될 수 있다.Also, in the present embodiment, it will be described on the assumption that gender is designated as a protected attribute to prevent bias from among a plurality of attributes included in input data. However, other attributes may be designated as protected attributes, or may be specified in advance by the user.
데이터 압축부(120)는 미리 지정된 패턴 인식 방식으로 학습되어 데이터 입력부(110)에서 획득된 다수의 입력 데이터의 특징값을 잠재 공간(latent space)에 전사한다. 여기서 데이터 압축부(120)는 일예로 VAE(Variational Autoecoder)의 인코더로 구현될 수 있으며, 속성의 수에 따라 다차원으로 표현될 수 있는 입력 데이터에서 속성의 수보다 적은 기지정된 저차원의 잠재 공간에 표현할 수 있도록 특징값으로 추출하여 재구축(Reconstruction)한다.The
이때, 데이터 압축부(120)는 보호된 속성에 무관하게 특징값을 전사하며, VAE로 구현된 데이터 압축부(120)는 특징값이 잠재 공간 상에서 지정된 확률 분포를 갖는 잠재 변수(latent variable)로 표현되도록 전사할 수 있다.At this time, the
편향 조절부(130)는 데이터 압축부(120)에 의해 잠재 공간에 전사된 특징값에서 보호된 속성에 대응하는 잠재 변수(z)의 편향성을 분석하고, 분석된 편향성이 제거된 보정 데이터를 생성하고, 보정 데이터를 다시 잠재 공간에 전사한다.The
편향 조절부(130)는 편향 측정부(131), 데이터 재구성부(132) 및 데이터 재압축부(133)를 포함할 수 있다. 우선 편향 측정부(131)는 잠재 공간에 전사된 특징값에서 보호된 속성에 대한 잠재 변수(z)의 통계적 특성을 추출하고, 추출된 통계적 특성에 따라 잠재 변수(z)에 대한 편향성을 제거하기 위한 보상값을 획득한다. 잠재 변수(z)의 대한 편향성은 잠재 변수(z)의 평균값과 기지정된 기준 평균값(여기서는 일예로 0) 사이의 오차를 의미한다. 따라서 편향성을 제거하기 위한 보상값은 잠재 변수(z)의 평균값이 기준 평균값으로 보정되도록 오차를 제거하기 위한 값으로 획득될 수 있다.The
일예로, 보호된 속성이 상기한 바와 같이 성별일 때, 본 실시예의 분류 장치는 도2 에 도시된 바와 같이, 여성 및 남성 각각 대해 잠재 공간에 전사된 잠재 변수(z)의 평균값이 0이 되도록 보상값을 획득한다.For example, when the protected attribute is gender as described above, the classification device of this embodiment is such that, as shown in FIG. 2, the average value of the latent variable z transferred to the latent space is equal to 0 for each of the female and the male. Obtain the reward value.
이때 편향 측정부(131)는 단순히 편향성에 대한 오차뿐만 아니라 잠재 변수(z)의 분산 오차 또한 함께 획득하여 보상값을 획득할 수 있다. 일예로 편향 측정부(131)는 잠재 변수(z)의 분산과 정규 분포의 분산 사이의 오차를 보상하기 위한 보상값을 함께 획득할 수 있다.At this time, the
데이터 재구성부(132)는 편향 측정부(131)에서 획득한 보상값 따라 잠재 공간에 전사된 특징값에서 편향성이 제거된 보정 데이터를 획득한다. 데이터 재구성부(132)는 미리 학습된 패턴 인식 방식에 따라 학습되어 잠재 공간에 전사된 특징값을 다시 입력 데이터와 동일한 속성을 갖는 보정 데이터로 획득하며, 이때, 편향 측정부(131)에서 획득한 보상값이 반영된 데이터를 획득한다.The
데이터 압축부(120)가 VAE의 인코더로 구현된 경우, 데이터 재구성부(132)는 VAE의 디코더로 구현될 수 있다.When the
데이터 재압축부(133)는 데이터 압축부(120)를 모의한 구성으로, 데이터 압축부(120)와 동일하게 학습된다. 이에 데이터 재압축부(133)는 데이터 압축부(120)와 유사하게 데이터 재구성부(132)에서 획득한 보정 데이터의 특징값을 잠재 공간에 전사한다. 이때 데이터 재구성부(132)에서 획득한 보정 데이터는 상기한 바와 같이 편향 측정부(131)에서 획득된 편향에 의한 보상값이 반영되어 편향성이 저감된 데이터이다. 따라서 데이터 재압축부(133)에서 잠재 공간에 전사한 특징값은 편향성이 저감된 상태이다.The
즉 데이터 재압축부(133)는 데이터 압축부(120)와 유사하게 특징값을 잠재 공간에 전사하기 위한 구성이지만, 데이터 압축부(120)와 달리 보호된 속성에 대한 편향성이 최소화 되도록 조절된 데이터를 잠재 공간에 전사한다.That is, the
분류부(140)는 데이터 재압축부(133)에 의해 잠재 공간에 전사된 특징값을 미리 학습된 패턴 인식 방식에 따라 분류한다. 분류부(140)는 데이터 재구성부(132)와 유사하게 특징값으로부터 다수의 속성을 갖는 데이터를 획득하되, 데이터를 분류하여 획득한다.The
상기한 직원 채용 추천 예에서 분류부(140)는 특징값에서 입력 데이터에 포함된 나이, 학력, 성별, 인종, 결혼 유무 등의 속성값을 복원하되, 특징값에 따라 추천 및 비추천으로 분류하여 획득할 수 있다.In the above-mentioned employee hiring recommendation example, the
그리고 편향 조절부(130)는 분류된 추천 및 비추천으로 분류된 데이터에서 보호된 속성이 균등하도록 조절하는 기능을 수행한다. 즉 추천으로 분류된 데이터에서 보호된 속성인 남성 데이터의 수와 여성 데이터의 수 및 분포가 균등하도록 조절하는 기능을 수행한다.In addition, the
결과적으로 도1 에 도시된 분류 장치는 편향 조절부(130)가 편향 측정부(131), 데이터 재구성부(132) 및 데이터 재압축부(133)를 포함하여, 잠재 공간에 전사된 특징값에서 보호된 속성의 편향성을 측정하고, 측정된 편향성을 보상한 특징값에 대응하는 보정데이터를 획득하여 다시 잠재 공간에 전사하도록 함으로써, 편향성을 저감시킬 수 있다.As a result, the classification device illustrated in FIG. 1 includes a
그러나 도1 의 분류 장치가 요구되는 성능을 나타내기 위해서는 데이터 압축부(120)와 데이터 재압축부(133), 데이터 재구성부(132) 및 분류부(140)가 미리 학습되어야 한다. 여기서 데이터 재압축부(133)는 데이터 압축부(120)와 동일하게 학습되어야 하므로, 학습된 데이터 압축부(120)가 동일하게 이용될 수 있다.However, the
도3 은 도1 의 분류 장치를 학습시키는 개념을 나타낸다.3 shows a concept of learning the classification device of FIG. 1.
도3 에서 (a)는 VAE 또는 오토인코더(Autoencoder)의 일반적 구성으로, VAE 및 오토인코더는 입력값(x)의 특징값(f(x))을 추출하여 잠재 공간에 전사하는 인코더(Encoder)와 잠재 공간에 전사된 특징값(f(x))으로부터 입력값(x)을 복원(g(f(x)))하기 위한 디코더(Decoder)를 포함할 수 있다.In FIG. 3, (a) is a general configuration of a VAE or an autoencoder, and the VAE and the autoencoder extract an feature value (f(x)) of an input value (x) and transfer it to a potential space (Encoder). And a decoder for restoring (g(f(x))) the input value x from the feature value f(x) transferred to the potential space.
인코더(Encoder)는 도1 의 데이터 압축부(120) 및 데이터 재압축부(133)에 대응하는 구성이며, 디코더(Decoder)는 도1 의 데이터 재구성부(132)에 대응하는 구성으로 볼 수 있다.The encoder (Encoder) is a configuration corresponding to the
VAE 및 오토인코더가 우수한 성능을 나타내기 위해서는 인코더(Encoder)의 입력값(x)과 디코더(Decoder)의 출력값(g(f(x)))의 오차, 즉 전사 오차의 수준을 손실 함수(loss function)(L1)가 최소가 되도록 수학식 1에 따라 비지도 방식으로 미리 학습될 수 있다.In order for the VAE and autoencoder to show excellent performance, the level of the error of the input error (x) of the encoder (Encoder) and the output value (g(f(x))) of the decoder (Decoder), that is, the level of the transfer error is a loss function (loss function)(L 1 ) may be previously learned in an unsupervised manner according to
여기서 crossentropy(x, g(f(x)))는 VAE의 인코더와 디코더에 의한 재구축 오차를 계산하는 크로스엔트로피 함수를 나타낸다.Here, crossentropy(x, g(f(x))) represents a cross-entropy function that calculates a reconstruction error by the encoder and decoder of VAE.
한편, (b)는 분류부(140)를 학습시키기 위한 구성을 나타낸다.On the other hand, (b) shows a configuration for learning the
(b)에서 인코더(Encoder)는 (a)와 동일한 인코더로서 데이터 재압축부(133)이며, 미리 학습된 상태이다. 그리고 분류기(classifier)는 분류부(140)에 대응하는 구성으로 잠재 공간에 전사된 잠재 변수(z)의 특징값에 따라 0또는 1의 이진 분류값(y)으로 분류되어 복원된 데이터를 출력하는 것으로 가정한다. 상기한 직원 채용 추천의 예에서 1이 추천이고, 0이 비추천일 수 있다.In (b), the encoder (Encoder) is the same encoder as (a), and is a
인코더(Encoder)가 미리 학습된 상태이므로, 분류부(140)는 수학식 2와 같이 구성된 손실 함수(L2)가 최소가 되도록 학습될 수 있다.Since the encoder is already learned, the
이때, 분류부(140)는 학습 데이터를 이용하여 지도 학습 방식으로 학습될 수 있다.At this time, the
도4 는 본 발명의 일 실시예에 따른 분류 방법을 나타낸다.4 shows a classification method according to an embodiment of the present invention.
도1 을 참조하여 도4 의 분류 방법을 설명하면, 우선 분류를 수행할 입력 데이터를 획득한다(S11). 이때, 입력 데이터의 다수의 속성 중 보호될 속성이 함께 지정될 수 있다. 그리고 입력 데이터의 다수의 속성값에 따른 특징값을 추출하여 잠재 공간에 기지정된 확률 분포를 갖는 잠재 변수 형태로 전사한다(S12).When the classification method of FIG. 4 is described with reference to FIG. 1, first, input data to be classified are obtained (S11). At this time, an attribute to be protected may be designated together among a plurality of attributes of input data. Then, feature values according to a plurality of attribute values of the input data are extracted and transferred in the form of a latent variable having a probability distribution determined in a potential space (S12).
입력 데이터에 대한 특징값이 잠재 공간에 전사되면, 잠재 공간에 전사된 특징값에서 보호된 속성에 대응하는 잠재 변수(z)의 통계적 특성을 추출하고, 추출된 통계적 특성에 따라 보호된 속성에 대한 편향성을 측정한다(S13). 그리고 잠재 공간에 전사된 특징값을 다시 입력 데이터에 대응하는 속성을 갖는 데이터로 획득하며, 이때, 측정된 편향성을 보상하기 위한 오차가 반영된 보정 데이터를 획득한다(S14).When the feature value for the input data is transferred to the potential space, the statistical characteristic of the latent variable (z) corresponding to the protected attribute is extracted from the feature value transferred to the potential space, and for the protected attribute according to the extracted statistical characteristic Deflection is measured (S13). Then, the feature value transferred to the potential space is obtained again as data having properties corresponding to the input data, and at this time, correction data reflecting an error for compensating the measured bias is acquired (S14).
보정 데이터가 획득되면, 획득된 보정 데이터에서 특징값을 추출하여 다시 잠재 공간에 전사한다(S15). 즉 편향성이 보상된 보정 데이터에서 특징값을 추출하여 잠재 공간에 전사한다. 이후, 잠재 공간에 전사된 특징값을 분류하여 분류된 데이터를 획득한다(S16).When the correction data is obtained, feature values are extracted from the obtained correction data and transferred to the potential space again (S15). That is, the feature values are extracted from the correction data compensated for the bias and transferred to the potential space. Thereafter, the feature values transferred to the potential space are classified to obtain classified data (S16).
도5 는 본 발명의 다른 실시예에 따른 분류 장치의 개략적 구조를 나타낸다.5 shows a schematic structure of a classification device according to another embodiment of the present invention.
도1 의 분류 장치를 다시 참조하면, 도1 의 분류 장치에서는 편향 조절부(130)의 편향 측정부(131)가 잠재 공간에 전사된 특징값에서 보호된 속성에 대응하는 잠재 변수(z)의 통계적 특성을 추출하고, 추출된 통계적 특성에 따라 보호된 속성에 대한 편향성을 통계적 특성에 따라 측정하며, 데이터 재구성부(132)가 측정된 편향성에 따라 잠재 공간에 전사된 특징값으로부터 보정 데이터를 획득한 후, 데이터 재압축부(133) 다시 잠재 공간에 보상 데이터에 대한 특징값을 전사한다.Referring back to the classification device of FIG. 1, in the classification device of FIG. 1, the
그러나 데이터 재압축부(133)는 상기한 바와 같이 데이터 압축부(120)를 모의한 구성으로 데이터 압축부(120)와 동일하다. 그리고 데이터 압축부(120)는 인공 신경망으로 구현되어 미리 학습된 패턴 인식 방식에 따라 입력 데이터로부터 특징값을 추출하여 잠재 공간에 전사한다. 따라서 데이터 압축부(120)가 입력 데이터로부터 곧바로 편향성이 저감된 특징값을 전사하도록 미리 학습될 수 있다면, 편향 조절부(130)를 제거할 수 있다.However, the
이에 도5 의 분류 장치는 데이터 입력부(210), 데이터 압축부(220) 및 분류부(240)를 포함한다.Accordingly, the classification device of FIG. 5 includes a
데이터 입력부(210)는 분류가 수행되어야 하는 다수의 입력 데이터를 획득한다. 그리고 데이터 압축부(220)는 미리 학습된 패턴 인식 방식에 따라 데이터 입력부(210)에서 획득된 다수의 입력 데이터의 특징값을 잠재 공간에 전사한다. 여기서 데이터 압축부(220)는 기지정된 보호되어야 하는 속성값의 편향성이 저감되도록 특징값을 잠재 공간에 전사할 수 있도록 미리 학습된다.The
그리고 분류부(240)는 잠재 공간에 전사된 특징값을 미리 학습된 패턴 인식 방식에 따라 분류하고, 분류된 특징값으로부터 다수의 속성을 갖는 데이터를 복원한다.In addition, the
다만 도5 의 분류 장치는 상기한 바와 같이, 데이터 압축부(220)가 입력 데이터로부터 보호된 속성값의 편향성을 저감하여 특징값을 잠재 공간에 전사할 수 있도록 미리 학습되어야 한다. 이에 데이터 압축부(220)를 학습시키기 위한 편향 학습부(230)가 학습 시에 부가되어 이용될 수 있다.However, as described above, the classification apparatus of FIG. 5 should be learned in advance so that the
편향 학습부(230)는 데이터 압축부(220)가 입력 데이터의 특징값을 잠재 공간에 복원 가능하도록 전사할 수 있도록 학습 시킴과 동시에, 잠재 공간에 전사되는 특징값의 보호된 속성에 대한 편향성이 저감된 형태로 전사되도록 학습시키기 위한 구성이다.The
편향 학습부(230)는 크로스엔트로피 측정부(231) 및 편향 측정부(232)를 포함할 수 있다.The
크로스엔트로피 측정부(231)는 도2 의 (a)에 도시된 디코더(Decoder)로 구현될 수 있다. 크로스엔트로피 측정부(231)는 데이터 압축부(220)에 의해 입력 데이터(x)가 잠재 공간에 전사된 특징값(f(x))을 데이터(g(f(x))로 복원하고, 입력 데이터(x)와 복원된 데이터(g(f(x)) 사이의 오차를 전사 오차로서 계산한다.The
한편 편향 측정부(232)는 데이터 압축부(220)에 의해 잠재 공간에 전사된 특징값에서 보호된 속성에 대한 통계적 특성을 추출하고, 추출된 통계적 특성에 따라 보호된 속성에 대한 편향성을 나타내는 편향성 오차를 획득한다. 그리고 획득된 편향성 오차를 크로스엔트로피 측정부(231)에서 측정된 전사 오차와 함께 데이터 압축부(220)로 역전파한다.On the other hand, the
여기서 편향 측정부(232)는 도1 의 편향 측정부(131)와 유사하게 잠재 변수(z)의 평균값과 기준 평균값 사이의 오차를 측정하여 편향성 오차를 획득할 수 있다. 또한 편향 학습부(230)는 잠재 공간에 전사된 잠재 변수(z)의 분산과 정규 분포의 분산 사이의 분산 오차를 함께 측정하여 편향성 오차에 포함할 수 있다. 이는 데이터 압축부(220)가 입력 데이터로부터 특징값을 추출하여 잠재 공간에 전사할 때, 보호된 속성에 대해 가능한 균등한 분포로 특징값을 전사할 수 있도록 하기 위함이다.Here, similar to the
일예로 편향성 측정부(232)는 잠재 변수(z)를 기지정된 정규 확률 분포와 비교하여 편향성 오차를 획득할 수 있다.For example, the
그리고 편향 학습부(230)는 획득된 전사 오차와 편향성 오차를 데이터 압축부(220)로 역전파으로써, 데이터 압축부(220)가 입력 데이터로부터 특징값을 추출하여 잠재 공간에 전사할 때, 보호된 속성의 잠재 변수(z)의 평균값과 분산이 기지정된 기준 평균값 및 분산을 갖도록 학습시킬 수 있다.In addition, the
데이터 압축부(220)는 편향 학습부(230)에 의해 수학식 3에 따른 손실 함수(L1)가 기지정된 제1 기준 손실값 이하가 될 때까지 반복 학습 될 수 있다.The
여기서 crossentropy(x, g(f(x)))는 전사 오차를 계산하는 크로스엔트로피 함수를 나타내고, 은 각각 평균(, 0)과 분산(, I)을 갖는 2개의 정규 분포(, ) 형태로 잠재 공간에 전사된 특징값의 지정된 속성에 대한 잠재 변수와 정규 확률 분포를 갖는 기지정된 기준 잠재 변수 사이의 정보량 차이를 계산하는 KL 다이버전스(Kullback-Leibler divergence)를 나타낸다.Here, crossentropy(x, g(f(x))) represents a cross-entropy function for calculating the transcription error, Mean each ( , 0) and variance ( , I) with two normal distributions ( , ) Represents the KL divergence that calculates the difference in the amount of information between a latent variable for a designated attribute of a feature value transferred to a latent space and a known reference latent variable with a normal probability distribution.
편향 학습부(230)는 데이터 압축부(200)의 학습이 완료되면, 즉 분류 장치가 실제 이용될 때는 제거되어 이용될 수 있다.The
도6 은 본 발명의 다른 실시예에 따른 분류 방법을 나타낸다.6 shows a classification method according to another embodiment of the present invention.
도5 의 분류 장치를 이용한 분류 방법을 설명하면, 우선 분류 장치가 이용되기 위해서는 데이터 압축부(220)와 분류부(240)가 학습되어야 한다.When the classification method using the classification device of FIG. 5 is described, first, in order to use the classification device, the
이에 도5 의 분류 방법에서는 우선 데이터 압축부(220)를 학습시키는 단계(S20)와 분류부(240)를 학습시키는 단계(S30) 및 데이터 분류 단계(S40)를 포함한다.Accordingly, the classification method of FIG. 5 first includes a step of learning the data compression unit 220 (S20), a step of learning the classification unit 240 (S30), and a data classification step (S40).
데이터 압축부(220)를 학습시키는 단계에서는 우선 데이터 압축부(220)는 학습을 위한 데이터를 인가받아 학습 특징값을 잠재 공간에 전사한다(S21). 이때 전사된 학습 특징값은 데이터 압축부(220)가 학습되지 않은 상태이므로, 전사된 특징값에 대한 데이터 복원 시에 학습 데이터와 복원된 데이터 사이의 전사 오차가 크게 발생될 수 있다. 또한 보호된 속성에 대한 고려가 되지 않은 상태로 잠재 공간에 전사되므로 보호된 속성에 대한 편향성이 존재하는 특징값일 수 있다.In the step of learning the
이에 편향 학습부(230)는 우선 학습 특징값을 복원하여 복원된 데이터와 학습 데이터 사이의 전사 오차를 크로스엔트로피를 이용하여 계산한다(S22).Accordingly, the
그리고 전사된 학습 특징값에서 보호된 속성에 대한 잠재 변수(z)의 통계적 특성을 추출하고, 추출된 통계적 특성에 따라 잠재 변수(z)의 편향성을 측정하여 편향성 오차를 측정한다(S23). 이때 편향 학습부(230)는 잠재 공간에 전사된 잠재 변수(z)의 평균과 분산을 기지정된 평균 및 분산을 갖는 정규 확률 분포와 비교 측정하여 편향성 오차를 측정할 수 있다.Then, the statistical characteristic of the potential variable z for the protected attribute is extracted from the transferred learning feature value, and the bias error is measured by measuring the bias of the potential variable z according to the extracted statistical characteristic (S23). At this time, the
편향 학습부(230)는 획득된 크로스엔트로피와 편향성 오차를 이용하여 수학식 3의 손실 함수(L1)를 계산하고, 계산된 손실 함수(L1)의 값을 함수 데이터 압축부(220)로 역전파하여 데이터 압축부(220)가 학습되도록 한다(S24).The
상기한 데이터 압축부(220)의 학습은 데이터 압축부(220)가 요구되는 성능을 나타낼 수 있을 때까지 반복 수행될 수 있다. 즉 데이터 압축부(220)가 입력 데이터로부터 제1 기준 손실값 이하가 되도록 특징값을 잠재 공간에 전사할 수 있도록 학습된다.The learning of the
그리고 데이터 압축부(220)의 학습이 완료되면, 분류부(240)가 학습된다(S30). 분류부(240)는 도2 의 (b)와 같이 학습된 데이터 압축부(220)를 인코더(Encoder)로 이용하여 수학식 2와 같이 크로스엔트로피를 이용한 손실 함수(L2)가 기지정된 제2 기준 손실값 이하가 되도록 학습될 수 있다.Then, when the learning of the
데이터 압축부(220)와 분류부(240)가 학습되면, 분류 장치는 분류되어야 할 입력 데이터를 인가받아 분류를 수행한다(S40). 우선 데이터 입력부(210)는 분류를 수행해야 할 입력 데이터를 획득한다(S41). 그리고 1차 학습 및 편향성 저감 학습된 데이터 압축부(220)는 입력 데이터로부터 특징값을 추출하여 보호된 속성에 대한 잠재 변수(z)의 편향성이 저감되도록 잠재 공간에 전사한다(S42).When the
이에 분류부(240)는 이미 학습된 방식에 따라 잠재 공간에 전사된 특징값을 분류하고, 분류된 특징값으로부터 분류 데이터를 획득한다(S43).Accordingly, the
도5 에서 편향 학습부(230)는 데이터 압축부(220)가 보호된 속성에 대한 편향성이 저감된 특징값을 잠재 공간에 전사할 수 있도록 하는 학습용 구성으로, 데이터 압축부(220)의 학습이 완료된 이후에는 분류 장치에서 생략될 수 있다.In FIG. 5, the
결과적으로 도5 및 도6 에 도시된 분류 장치 및 방법은 입력 데이터로부터 특징값을 추출하여, 특징값에서 보호된 속성에 대한 잠재 변수(z)가 잠재 공간 상에 편향성이 저감된 패턴으로 전사할 수 있다.As a result, the classification apparatus and method shown in FIGS. 5 and 6 extract feature values from the input data, so that the latent variable (z) for the attribute protected from the feature values can be transferred in a pattern with reduced deflection on the potential space Can.
이는 일예로 직원 채용 추천이라는 상기의 예에서 성별이라는 보호된 속성에 대해 남성과 여성이 균등하게 추천되도록 입력 데이터를 분류할 수 있다.This may, for example, categorize the input data so that men and women are equally recommended for the protected attribute of gender in the above example of employee hiring recommendations.
본 발명에 따른 방법은 컴퓨터에서 실행 시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention can be implemented as a computer program stored in a medium for execution on a computer. Computer readable media herein can be any available media that can be accessed by a computer, and can also include any computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data, and ROM (readable) Dedicated memory), RAM (random access memory), CD (compact disk)-ROM, DVD (digital video disk)-ROM, magnetic tape, floppy disk, optical data storage, and the like.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, these are merely exemplary, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom.
따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.
210: 데이터 입력부
220: 데이터 압축부
230: 편향 학습부
240: 분류부210: data input unit 220: data compression unit
230: bias learning unit 240: classification unit
Claims (8)
상기 데이터 압축부와 별도로 미리 학습된 패턴 인식 방식에 따라 잠재 공간에 전사된 특징값을 분류하고, 분류된 특징값으로부터 분류된 데이터를 복원하는 분류부; 를 포함하고,
상기 데이터 압축부는
학습 시에 상기 잠재 공간에 전사된 특징값에서 복원되는 데이터와 상기 입력 데이터 사이의 오차인 전사 오차 및 상기 잠재 공간에 전사된 특징값에서 기지정된 속성에 대응하는 잠재 변수의 통계적 특성을 분석하여 측정된 편향성 오차가 역전파되어 학습된 분류 장치.A data compression unit that extracts feature values from input data including attribute values for a plurality of attributes according to a pre-trained pattern recognition method and transfers them to potential spaces of a predetermined dimension; And
A classification unit that classifies the feature values transferred to the potential space according to a pattern recognition method previously learned separately from the data compression unit and restores the classified data from the classified feature values; Including,
The data compression unit
At the time of learning, it is measured by analyzing statistical characteristics of a potential variable corresponding to a predetermined error from a transfer error, which is an error between data restored from the feature value transferred to the latent space and the input data, and a feature value transferred from the latent space. Classifier learned by back propagating the biased error.
상기 데이터 압축부의 학습 시에 상기 전사 오차 및 상기 편향성 오차를 획득하기 위해 부가되는 편향 학습부; 를 더 포함하고,
상기 편향 학습부는
상기 입력 데이터(x)에서 잠재 공간에 전사된 특징값(f(x))으로부터 복원 데이터(g(f(x)))를 복원하여, 상기 입력 데이터(x)와 상기 복원 데이터(g(f(x))) 사이의 오차를 크로스엔트로피로 계산하여 상기 전사 오차를 획득하고,
잠재 공간에 전사된 특징값에서 기지정된 속성에 대응하는 잠재 변수의 평균 및 분산을 기지정된 정규 확률 분포의 평균 및 분산과 비교하여 상기 편향성 오차를 측정하는 분류 장치.The method of claim 1, wherein the classification device
A bias learning unit added to acquire the transcription error and the bias error when learning the data compression unit; Further comprising,
The bias learning unit
Restoration data g(f(x)) is restored from the feature value f(x) transferred to potential space from the input data x, so that the input data x and the restoration data g(f The error between (x))) is calculated by cross entropy to obtain the transcription error,
A classification device that measures the bias error by comparing the mean and variance of a latent variable corresponding to a given attribute from a feature value transferred to a potential space with the mean and variance of a known normal probability distribution.
수학식
(여기서 crossentropy(x, g(f(x)))는 전사 오차를 계산하는 크로스엔트로피 함수를 나타내고, 은 각각 평균(, 0)과 분산(, I)을 갖는 2개의 정규 분포(, ) 형태로 잠재 공간에 전사된 특징값의 지정된 속성에 대한 잠재 변수와 정규 확률 분포를 갖는 기지정된 기준 잠재 변수 사이의 정보량 차이인 편향성 오차를 계산하는 KL 다이버전스(Kullback-Leibler divergence)를 나타낸다.)
에 따른 손실 함수(L1)의 계산 결과가 기지정된 제1 기준 손실값 이하가 되도록 상기 데이터 압축부를 학습시키는 분류 장치.The method of claim 2, wherein the bias learning unit
Equation
(Where crossentropy(x, g(f(x))) represents the cross-entropy function for calculating the transcription error, Mean each ( , 0) and variance ( , I) with two normal distributions ( , ) Represents the KL divergence that calculates the bias error, which is the difference in the amount of information between the latent variable for a specified attribute of a feature value transferred to the latent space and a known reference latent variable with a normal probability distribution.)
Classification device for learning the data compression unit so that the calculation result of the loss function (L 1 ) according to the first reference loss value or less.
상기 데이터 압축부에 의해 잠재 공간에 전사된 특징값(f(x))에 대해 분류 복원한 결과(h(f(x))와 기지정된 분류값(y) 사이의 오차에 대한 손실 함수(L2)가 수학식
의 크로스엔트로피 함수로 계산되고, 손실 함수(L2)의 계산 결과가 기지정된 제2 기준 손실값 이하가 되도록 반복 학습된 분류 장치.The method of claim 2, wherein the classification unit
Loss function (L) for the error between the result of classification and restoration (h(f(x))) and the assigned classification value (y) for the feature value (f(x)) transferred to the potential space by the data compression unit 2 ) Equation
It is calculated by the cross-entropy function of, and the classification device iteratively learned so that the calculation result of the loss function (L 2 ) is equal to or less than a predetermined second reference loss value.
미리 학습된 패턴 인식 방식에 따라 잠재 공간에 전사된 특징값을 분류하고, 분류된 특징값으로부터 분류된 데이터를 복원하는 단계; 를 포함하고,
상기 전사하는 단계는 이전, 학습 단계에서 상기 잠재 공간에 전사된 특징값에서 복원되는 데이터와 상기 입력 데이터 사이의 오차인 전사 오차 및 상기 잠재 공간에 전사된 특징값에서 기지정된 속성에 대응하는 잠재 변수의 통계적 특성을 분석하여 측정된 편향성 오차가 역전파되어 미리 학습된 분류 방법.Extracting feature values from input data including attribute values for a plurality of attributes according to a pre-trained pattern recognition method and transferring them to potential spaces of a predetermined dimension; And
Classifying the feature values transferred to the potential space according to the previously learned pattern recognition method, and restoring the classified data from the classified feature values; Including,
The step of transferring may be a transfer error, which is an error between data restored from the feature value transferred to the potential space and the input data in the previous, learning step, and a potential variable corresponding to a property determined from the feature value transferred to the potential space A pre-trained classification method in which the bias error measured by analyzing the statistical characteristics of the back propagated.
상기 입력 데이터(x)에서 잠재 공간에 전사된 특징값(f(x))으로부터 복원 데이터(g(f(x)))를 복원하여, 상기 입력 데이터(x)와 상기 복원 데이터(g(f(x))) 사이의 오차를 크로스엔트로피로 계산하여 상기 전사 오차를 획득하는 단계; 및
잠재 공간에 전사된 특징값에서 기지정된 속성에 대응하는 잠재 변수의 평균 및 분산을 기지정된 정규 확률 분포의 평균 및 분산과 비교하여 상기 편향성 오차를 측정하는 단계; 를 포함하는 분류 방법.The method of claim 5, wherein the learning step
Restoration data g(f(x)) is restored from the feature value f(x) transferred to potential space from the input data x, so that the input data x and the restoration data g(f (x))) calculating the error between the cross entropy to obtain the transcription error; And
Measuring the bias error by comparing the mean and variance of a latent variable corresponding to a given attribute from a feature value transferred to a latent space with the mean and variance of a known normal probability distribution; Classification method comprising a.
수학식
(여기서 crossentropy(x, g(f(x)))는 전사 오차를 계산하는 크로스엔트로피 함수를 나타내고, 은 각각 평균(, 0)와 분산(, I)를 갖는 2개의 정규 분포(, ) 형태로 잠재 공간에 전사된 특징값의 지정된 속성에 대한 잠재 변수와 정규 확률 분포를 갖는 기지정된 기준 잠재 변수 사이의 정보량 차이인 편향성 오차를 계산하는 KL 다이버전스(Kullback-Leibler divergence)를 나타낸다.)
에 따른 손실 함수(L1)의 계산 결과가 기지정된 제1 기준 손실값 이하가 되도록 학습하는 분류 방법.The method of claim 6, wherein the learning step
Equation
(Where crossentropy(x, g(f(x))) represents the cross-entropy function for calculating the transcription error, Mean each ( , 0) and variance ( , I) with two normal distributions ( , ) Represents the KL divergence that calculates the bias error, which is the difference in the amount of information between the latent variable for a specified attribute of a feature value transferred to the latent space and a known reference latent variable with a normal probability distribution.)
A classification method for learning such that the calculation result of the loss function (L 1 ) according to is less than or equal to a predetermined first reference loss value.
잠재 공간에 전사된 특징값(f(x))에 대해 분류 복원한 결과(h(f(x))와 기지정된 분류값(y) 사이의 오차에 대한 손실 함수(L2)가 수학식
의 크로스엔트로피 함수로 계산되고, 손실 함수(L2)의 계산 결과가 기지정된 제2 기준 손실값 이하가 되도록 학습되는 단계; 를 더 포함하는 분류 방법.The method of claim 7, wherein the learning step
The loss function (L 2 ) for the error between the result of classification restoration (h(f(x)) and the assigned classification value (y)) for the feature value (f(x)) transferred to the potential space is expressed by the equation
It is calculated as a cross-entropy function of, and learning to be such that the calculation result of the loss function (L 2 ) is less than or equal to a predetermined second reference loss value; Classification method further comprising a.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190005334A KR102198461B1 (en) | 2019-01-15 | 2019-01-15 | Low-bias classification apparatus and method therof |
PCT/KR2019/002698 WO2020149450A1 (en) | 2019-01-15 | 2019-03-08 | Classification device and method with reduced bias |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190005334A KR102198461B1 (en) | 2019-01-15 | 2019-01-15 | Low-bias classification apparatus and method therof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200088699A true KR20200088699A (en) | 2020-07-23 |
KR102198461B1 KR102198461B1 (en) | 2021-01-05 |
Family
ID=71613685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190005334A KR102198461B1 (en) | 2019-01-15 | 2019-01-15 | Low-bias classification apparatus and method therof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102198461B1 (en) |
WO (1) | WO2020149450A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5139874B2 (en) * | 2008-04-18 | 2013-02-06 | 日本電信電話株式会社 | LABELING DEVICE, LABELING PROGRAM, RECORDING MEDIUM CONTAINING LABELING PROGRAM, AND LABELING METHOD |
US20170330058A1 (en) * | 2016-05-16 | 2017-11-16 | Cerebri AI Inc. | Detecting and reducing bias (including discrimination) in an automated decision making process |
KR101855168B1 (en) | 2016-11-18 | 2018-05-10 | 가톨릭대학교 산학협력단 | Emotion classification method based on deep learning and method thereof |
US20180314917A1 (en) * | 2017-04-27 | 2018-11-01 | Dassault Systemes | Learning an autoencoder |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5139874B2 (en) * | 1972-06-27 | 1976-10-30 |
-
2019
- 2019-01-15 KR KR1020190005334A patent/KR102198461B1/en active IP Right Grant
- 2019-03-08 WO PCT/KR2019/002698 patent/WO2020149450A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5139874B2 (en) * | 2008-04-18 | 2013-02-06 | 日本電信電話株式会社 | LABELING DEVICE, LABELING PROGRAM, RECORDING MEDIUM CONTAINING LABELING PROGRAM, AND LABELING METHOD |
US20170330058A1 (en) * | 2016-05-16 | 2017-11-16 | Cerebri AI Inc. | Detecting and reducing bias (including discrimination) in an automated decision making process |
KR101855168B1 (en) | 2016-11-18 | 2018-05-10 | 가톨릭대학교 산학협력단 | Emotion classification method based on deep learning and method thereof |
US20180314917A1 (en) * | 2017-04-27 | 2018-11-01 | Dassault Systemes | Learning an autoencoder |
Non-Patent Citations (1)
Title |
---|
"Men Also Like Shopping: Reducing Gender Bias Amplification using Groups-level Constraints", arXiv:1707.09457v1, 2017.07.29. * |
Also Published As
Publication number | Publication date |
---|---|
KR102198461B1 (en) | 2021-01-05 |
WO2020149450A1 (en) | 2020-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Friedler et al. | A comparative study of fairness-enhancing interventions in machine learning | |
US11257041B2 (en) | Detecting disability and ensuring fairness in automated scoring of video interviews | |
US10650276B1 (en) | Learning to process images depicting faces without leveraging sensitive attributes in deep learning models | |
Martens et al. | Performance of classification models from a user perspective | |
CN107122327B (en) | Method and training system for training model by using training data | |
EP1504412B1 (en) | Processing mixed numeric and/or non-numeric data | |
US10936868B2 (en) | Method and system for classifying an input data set within a data category using multiple data recognition tools | |
CN112861945A (en) | Multi-mode fusion lie detection method | |
KR20220071875A (en) | Device and method for underwriting a person who will subscribe to insurance based on artificial neural network | |
Eddy et al. | Credit scoring models: Techniques and issues | |
CN112541530B (en) | Data preprocessing method and device for clustering model | |
Sixhaxa et al. | Predicting students performance in exams using machine learning techniques | |
US20220405640A1 (en) | Learning apparatus, classification apparatus, learning method, classification method and program | |
KR20200088699A (en) | Low-bias classification apparatus and method therof | |
WO2023115884A1 (en) | Ordered classification tag determining method and apparatus, electronic device, and storage medium | |
Kang et al. | Inference for income mobility measures in the presence of spatial dependence | |
Schuckers et al. | Statistical methods for assessing differences in false non-match rates across demographic groups | |
KR102184655B1 (en) | Improvement Of Regression Performance Using Asymmetric tanh Activation Function | |
JP5210808B2 (en) | Age estimation apparatus and method | |
KR20200113397A (en) | Method of under-sampling based ensemble for data imbalance problem | |
US11676053B2 (en) | Systems, methods, and media for automatically identifying entrepreneurial individuals in a population using individual and population level data | |
KR102624634B1 (en) | System for replacing dropout respondents in non-face-to-face surveys using self-learning-based artificial intelligence | |
KR102624636B1 (en) | Self-feedback based questionnaire creation system | |
US20230065173A1 (en) | Causal relation inference device, causal relation inference method, and recording mideum | |
KR102266853B1 (en) | Method and apparatus for recommending items based on multi-type pair-wise preference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |