KR102585613B1 - Method and System for Fair Model Training under Correlation Shifts in Machine Learning - Google Patents

Method and System for Fair Model Training under Correlation Shifts in Machine Learning Download PDF

Info

Publication number
KR102585613B1
KR102585613B1 KR1020230052881A KR20230052881A KR102585613B1 KR 102585613 B1 KR102585613 B1 KR 102585613B1 KR 1020230052881 A KR1020230052881 A KR 1020230052881A KR 20230052881 A KR20230052881 A KR 20230052881A KR 102585613 B1 KR102585613 B1 KR 102585613B1
Authority
KR
South Korea
Prior art keywords
data
correlation
model training
change
label
Prior art date
Application number
KR1020230052881A
Other languages
Korean (ko)
Inventor
황의종
노유지
서창호
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Application granted granted Critical
Publication of KR102585613B1 publication Critical patent/KR102585613B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법 및 시스템이 제시된다. 본 발명에서 제안하는 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법은 전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 단계, 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계 및 후처리부를 통해 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력하는 단계를 포함한다.In machine learning, a fair model training method and system according to correlation changes is presented. The fair model training method according to correlation changes in machine learning proposed in the present invention extracts samples of classes related to correlations that represent changes in bias between the label and group attributes of data for model training through a preprocessor and compares the correlation Performing preprocessing to reduce changes, adjusting the data ratio between the label and group attributes of the data according to the change in the preprocessed correlation through a process model processing unit, and outputting the trained model through a postprocessing unit in advance. It includes the step of inputting data adjusted according to the adjusted data ratio to a fair algorithm for model training to meet a set fairness.

Description

머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법 및 시스템{Method and System for Fair Model Training under Correlation Shifts in Machine Learning}Fair model training method and system according to correlation changes in machine learning {Method and System for Fair Model Training under Correlation Shifts in Machine Learning}

본 발명은 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법 및 시스템에 관한 것이다.The present invention relates to a fair model training method and system according to correlation changes in machine learning.

모델 공정성은 성별, 인종 또는 연령과 같은 특정 집단에 대한 차별을 방지하기 위해 많은 AI 애플리케이션에서 필수적인 요소가 되고 있다. 공정성 접근 방식으로는 훈련 데이터가 편향되는 전처리, 모델 훈련이 공정성에 맞게 조정되는 처리 중, 훈련된 모델의 출력이 공정성을 충족하도록 수정되는 후처리의 세 가지 중요한 공정성 접근 방식이 있다. Model fairness is becoming an essential element in many AI applications to prevent discrimination against specific groups such as gender, race, or age. There are three important fairness approaches: preprocessing, where the training data is biased, during processing, where model training is adjusted for fairness, and postprocessing, where the output of the trained model is modified to meet fairness.

공정성 처리 접근법은 불공정성을 완화하기 위해 일반적으로 사용되지만, 대부분 훈련 및 배치 데이터 분포가 동일하다는 제한적 가정을 한다. 그러나 두 분포는 특히 데이터 편향 측면에서 일반적으로 다르다. 예를 들어, 최근의 기술에서는 이전에 수집된 데이터와 최근에 수집된 데이터 사이에 편향된 양이 다를 가능성이 있음을 보여준다. 또한, 데이터 편향이 변경되면 위의 가정이 깨지기 때문에 이제 훈련된 모델의 공정성과 정확도를 배치에서 예측할 수 없다. Fairness handling approaches are commonly used to mitigate unfairness, but most make the restrictive assumption that the training and batch data distributions are identical. However, the two distributions are generally different, especially in terms of data bias. For example, recent techniques show that the amount of bias is likely to be different between previously and recently collected data. Additionally, as the above assumption breaks when the data bias changes, the fairness and accuracy of the trained model cannot now be predicted in batches.

공정성을 위한 대부분의 처리 중 접근 방식은 훈련 및 배치 분포가 동일하다고 가정하며, 이는 또한 동일한 수준의 편향을 가정한다는 것을 의미한다. 그러나 종래기술에서 확인한 바와 같이 데이터 편향은 시간이 지남에 따라 바뀔 수 있으며, 이는 배치 데이터가 실제로 훈련 데이터와 다른 편향을 가질 수 있음을 의미한다. 공정한 훈련에서 데이터 편향은 레이블과 민감한 그룹 속성 z 사이의 관계를 반영한다. 예를 들어, 모든 포지티브(positive) 레이블이 동일한 그룹에 있는 경우 데이터는 매우 편향된 것으로 간주될 수 있다. 반대로 레이블이 모든 그룹에 랜덤하게 할당된 경우 데이터는 편향이 없는 것으로 간주될 수 있다.Most in-processing approaches for fairness assume that the training and placement distributions are identical, which also means they assume the same level of bias. However, as confirmed in the prior art, data bias can change over time, meaning that batch data may actually have a different bias than training data. In fair training, data bias reflects the relationship between the label and the sensitive group attribute z. For example, if all positive labels are in the same group, the data may be considered highly biased. Conversely, if labels are randomly assigned to all groups, the data can be considered unbiased.

배치 데이터의 편향 변화는 훈련된 모델의 성능에 부정적인 영향을 미칠 수 있다. 편향은 상관 관계를 통해 표현될 수 있고, 훈련 분포는 편향되어 있으며 포지티브 레이블을 가진다. 반면에, 배치 분포에서는 포지티브 레이블이 각 그룹에 대해 동일하게 분포되어 있으므로 편향이 감소한다. 훈련 데이터는 DP 공정성이 완벽한 훈련 데이터에 대해 공정한 분류기를 훈련한다고 가정하지만 결과적으로 정확도는 다르다. 배치 데이터에서 정확도가 여전히 불완전한 상태로 유지되는 동안 DP가 악화된다. 근본적인 문제는 분류기가 다른 편향을 염두에 두고 훈련되었다는 점이다. Changes in bias in batch data can negatively impact the performance of a trained model. Bias can be expressed through correlation, and the training distribution is biased and has positive labels. On the other hand, in batch distribution, positive labels are distributed equally for each group, thus reducing bias. Training data assumes that DP fairness trains a fair classifier on perfect training data, but the resulting accuracy is different. DP worsens while accuracy remains imperfect on batch data. The fundamental problem is that the classifier is trained with different biases in mind.

[1] Aditya Krishna Menon and Robert C Williamson. The cost of fairness in binary classification. In FAT*, pp. 107-118, 2018.[1] Aditya Krishna Menon and Robert C Williamson. The cost of fairness in binary classification. In FAT*, pp. 107-118, 2018.

본 발명이 이루고자 하는 기술적 과제는 기존의 처리 중인 공정한 알고리즘이 정확도와 공정성에 근본적인 한계가 있음을 분석하고, 레이블과 민감한 그룹 사이의 편향의 변화를 명시적으로 포착할 수 있는 상관 관계 변화를 줄이기 위해 입력 데이터를 샘플링하여 처리 중인 접근 방식이 한계를 극복할 수 있도록 하는 새로운 전처리 단계를 수행하는 공정한 모델 훈련 방법 및 시스템을 제공하는데 있다. The technical task to be achieved by the present invention is to analyze that existing fair algorithms have fundamental limitations in accuracy and fairness, and to reduce correlation changes that can explicitly capture changes in bias between labels and sensitive groups. The goal is to provide a fair model training method and system that samples input data and performs a new preprocessing step that allows the approach at hand to overcome limitations.

일 측면에 있어서, 본 발명에서 제안하는 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법은 전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 단계, 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계 및 후처리부를 통해 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력하는 단계를 포함한다. In one aspect, the fair model training method according to correlation changes in machine learning proposed in the present invention provides samples of classes related to correlations that represent changes in bias between label and group attributes of data for model training through a preprocessor. Extracting and performing preprocessing to reduce the correlation change, adjusting the data ratio between the label and group attributes of the data according to the preprocessed correlation change through a process model processor, and trained through a postprocessor It includes inputting data adjusted according to the adjusted data ratio into a process algorithm for model training so that the output of the model satisfies a predetermined fairness.

상기 전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 단계는 배치 데이터에서 주어진 그룹 속성의 조건부 확률 차이의 상관 상수 및 상기 상관 상수의 범위를 분포 추정 기법을 사용하여 구하고, 상기 추출된 샘플에 대한 클래스의 가중치를 사용하여 조건부 확률 차이에 비례하는 데이터의 레이블과 그룹 속성 간의 상관 관계 변화를 감소시키기 위한 전처리를 수행한다. The step of performing preprocessing to reduce the correlation change by extracting samples of a class related to correlation indicating a change in bias between the label of data for model training and group properties through the preprocessor includes group properties given in batch data. The correlation constant of the conditional probability difference and the range of the correlation constant are obtained using a distribution estimation technique, and the correlation change between the label and group attributes of the data is proportional to the conditional probability difference using the weight of the class for the extracted sample. Perform preprocessing to reduce .

상기 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계는 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정에서 정보 손실을 줄이기 위해 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하는 것을 목표로 하는 함수를 설정한다. The step of adjusting the data ratio between the label and group attributes of the data according to the change in the preprocessed correlation through the process model processing unit includes adjusting the data ratio between the label and group attributes of the data to reduce information loss by adjusting the data ratio between the original data ratio. Set up a function that aims to minimize the squared difference between and the adjusted data rate.

상기 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계는 상기 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하기 위한 함수에 대하여 비볼록 QCQP(quadratically constrained quadratic problem)의 최적 값의 하한을 제공하는 볼록 이완 SDP(Semidefinite Programming) 완화를 적용한다. The step of adjusting the data ratio between the label and group attributes of the data according to the preprocessed correlation change through the process model processing unit is non-convex with respect to a function for minimizing the squared difference between the original data ratio and the adjusted data ratio. We apply convex relaxation Semidefinite Programming (SDP) relaxation, which provides a lower bound on the optimal value of the quadratically constrained quadratic problem (QCQP).

상기 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계는 상기 SDP 완화를 통해 조정된 새로운 데이터 비율을 반영함으로써, 상기 전처리를 통한 상관 관계 조정과 데이터 비율에 대한 공정성 완화를 분리한다. The step of adjusting the data ratio between the label and the group attribute of the data according to the preprocessed correlation change through the process model processing unit reflects the new data ratio adjusted through the SDP relaxation, thereby adjusting the correlation through the preprocessing. Separate fairness relaxations for and data rates.

또 다른 일 측면에 있어서, 본 발명에서 제안하는 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 시스템은 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 전처리부, 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 공정 모델 처리부 및 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력하는 후처리부를 포함한다.In another aspect, the fair model training system according to correlation changes in machine learning proposed in the present invention extracts samples of classes related to correlations that represent changes in bias between label and group attributes of data for model training. A preprocessor that performs preprocessing to reduce the correlation change, a process model processor that adjusts the data ratio between the label and group attributes of the data according to the preprocessed correlation change, and the output of the trained model has a predetermined fairness. It includes a post-processing unit that inputs the data adjusted according to the adjusted data ratio to a process algorithm for model training to meet.

본 발명의 실시예들에 따르면 기존의 처리 중인 공정한 알고리즘이 정확도와 공정성에 근본적인 한계가 있음을 분석하고, 입력 데이터를 샘플링하여 처리 중인 접근 방식이 한계를 극복할 수 있도록 하는 새로운 전처리 단계를 수행하는 공정한 모델 훈련 방법 및 시스템을 통해 레이블과 민감한 그룹 사이의 편향의 변화를 명시적으로 포착할 수 있는 상관 관계 변화를 줄일 수 있다. 또한, 변화된 상관 관계를 반영하기 위해 레이블과 민감한 그룹 간의 데이터 비율을 조정하기 위한 최적화 문제를 공식화하고, 전처리를 통한 상관 관계 조정과 처리 중인 데이터에 대한 공정성 완화를 통해 전처리 및 처리 중인 접근 방식의 역할을 분리할 수 있다. According to embodiments of the present invention, it is analyzed that the existing fair algorithm in process has fundamental limitations in accuracy and fairness, and a new preprocessing step is performed to sample the input data to enable the in-process approach to overcome the limitations. Fair model training methods and systems can reduce correlation changes that can explicitly capture changes in bias between labels and sensitive groups. Additionally, we formulate an optimization problem to adjust the data ratio between labels and sensitive groups to reflect changed correlations, and the role of preprocessing and in-processing approaches by adjusting correlations through preprocessing and relaxing fairness for the data being processed. can be separated.

도 1은 본 발명의 일 실시예에 따른 레이블과 민감한 그룹 속성 간의 상관 관계를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 시스템의 구성을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 상관 관계 변화가 공정한 훈련에 미치는 영향을 설명하기 위한 그래프이다.
도 5 본 발명의 일 실시예에 따른 상관 관계 변화를 반영한 공정한 훈련 알고리즘을 나타내는 도면이다.
FIG. 1 is a diagram illustrating the correlation between labels and sensitive group attributes according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a fair model training method according to correlation changes in machine learning according to an embodiment of the present invention.
Figure 3 is a diagram showing the configuration of a fair model training system according to correlation changes in machine learning according to an embodiment of the present invention.
Figure 4 is a graph to explain the effect of correlation changes on fair training according to an embodiment of the present invention.
Figure 5 is a diagram showing a fair training algorithm reflecting correlation changes according to an embodiment of the present invention.

모델 공정성은 신뢰할 수 있는 AI의 필수 요소이다. 모델 공정성을 위한 많은 기술이 제안되었지만, 대부분의 기술은 훈련 및 배치 데이터 분포가 동일하다고 가정하며, 이는 실제로는 그렇지 않은 경우가 많다. 특히 레이블과 민감한 그룹 사이의 편향이 변경되면 훈련된 모델의 공정성이 직접적으로 영향을 받아 악화될 수 있다. Model fairness is an essential element of trustworthy AI. Many techniques have been proposed for model fairness, but most of them assume that the training and batch data distributions are identical, which is often not the case in reality. In particular, if the bias between labels and sensitive groups changes, the fairness of the trained model can be directly affected and worsened.

본 발명에서는 이러한 문제를 해결하기 위해 기존의 처리 중인 공정한 알고리즘이 정확도와 공정성에 근본적인 한계가 있음을 분석하고, 레이블과 민감한 그룹 사이의 편향의 변화를 명시적으로 포착할 수 있는 상관 관계 변화 개념을 설명한다. 또한, 상관 관계 변화를 줄이기 위해 입력 데이터를 샘플링하여 처리 중 접근 방식의 한계를 극복할 수 있도록 하는 새로운 전처리 단계를 제안한다. 본 발명에서는 변화된 상관 관계를 반영하기 위해 레이블과 민감한 그룹 간의 데이터 비율을 조정하기 위한 최적화 문제를 공식화한다. 제안하는 접근 방식의 핵심 장점은 전처리를 통한 상관 관계 조정과 처리 중인 데이터에 대한 공정성 완화라는 전처리 및 처리 중인 접근 방식의 역할을 분리하는 데 있다. 실험결과에 따르면 제안하는 프레임워크는 합성 데이터셋과 실제 데이터셋 모두에서 정확도와 공정성을 갖춘 기존의 처리 중인 공정한 알고리즘을 효과적으로 개선한다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.In order to solve this problem, the present invention analyzes that existing fair algorithms have fundamental limitations in accuracy and fairness, and develops a correlation change concept that can explicitly capture changes in bias between labels and sensitive groups. Explain. Additionally, we propose a new preprocessing step that allows us to overcome the limitations of the in-process approach by sampling the input data to reduce correlation changes. In the present invention, we formulate an optimization problem to adjust the data ratio between labels and sensitive groups to reflect changed correlations. The key advantage of the proposed approach lies in separating the roles of preprocessing and in-processing approaches: correlation adjustment through preprocessing and fairness mitigation for in-processing data. Experimental results show that the proposed framework effectively improves existing in-process fair algorithms with accuracy and fairness on both synthetic and real datasets. Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

본 발명에서는 데이터 편향 변화를 체계적으로 해결하기 위해 데이터에서 레이블 y와 그룹 속성 z 사이의 상관 관계 변화 개념을 제안한다. 공변량 및 개념 변화를 포함하여 다양한 유형의 분포 변화에 대한 공정한 훈련을 조사하기 위해 최근 몇 가지 연구가 제안되었지만, 일반적으로 y와 z 사이의 편향 변화를 명시적으로 고려하지 않는다. 이에 비해, 본 발명에서 제안하는 상관 관계 변화는 정확하게 데이터 편향 변화가 공정한 훈련에 어떻게 영향을 미치는지 이론적으로 분석할 수 있게 해준다. In the present invention, we propose the concept of correlation change between label y and group attribute z in data to systematically solve data bias changes. Several recent studies have been proposed to investigate fair training for different types of distributional changes, including covariates and conceptual changes, but they generally do not explicitly consider bias changes between y and z. In comparison, the correlation change proposed in the present invention allows us to theoretically analyze exactly how changes in data bias affect fair training.

본 발명의 실시예에 따른 상관 관계 변화 하에서의 공정한 훈련을 위해, 먼저 데이터의 상관 관계 개념을 사용하여 고정 분포 가정으로 처리 중 접근법의 기본 정확도와 공정성 한계를 분석한 다음, 상관 관계 변화 하에서 처리 중 접근법의 성능을 향상시키기 위한 새로운 전처리 단계를 설계한다. 본 발명에서는 기존의 처리 중인 공정한 알고리즘이 실제로 훈련 분포에 의해 제한되고 배치 분포에서 성능이 저하될 수 있음을 보여준다. 특히, 높은 (y, z) 상관 관계는 모든 공정한 훈련에 대한 낮은 정확도-공정성 트레이드 오프를 초래한다. 따라서 대부분의 처리 중인 공정한 알고리즘은 동일한 훈련 및 배치 분포를 가정하므로, 훈련 데이터에 대한 성능이 배치 데이터로 전달된다는 보장은 없다. 이론적 분석에 기초하여, 본 발명에서는 (y, z) 클래스의 샘플을 추출하여 변화된 상관 관계를 줄이기 위한 전처리 단계를 제안한다. 변화된 상관 관계의 가능한 범위를 사용하여 변화에 대한 상관 관계를 조정하기 위해 (y, z) 클래스 간의 새로운 데이터 비율을 찾는 최적화 문제를 해결하여 처리 중인 접근 방식이 더 나은 성능을 발휘할 수 있는 기회를 제공한다. 그런 다음 새 데이터가 공정한 알고리즘의 입력으로 사용된다.For fair training under correlation changes according to embodiments of the present invention, first use the concept of correlation in data to analyze the basic accuracy and fairness limits of the in-process approach with a fixed distribution assumption, and then use the in-process approach under correlation changes. Design a new preprocessing step to improve performance. In the present invention, we show that existing in-process fair algorithms are actually limited by the training distribution and may perform poorly in the batch distribution. In particular, high (y, z) correlation results in a low accuracy-fairness trade-off for any fair training. Therefore, since most fair algorithms in processing assume the same training and batch distribution, there is no guarantee that performance on training data will transfer to batch data. Based on theoretical analysis, the present invention proposes a preprocessing step to reduce the changed correlation by extracting samples of the (y, z) class. Using the possible range of varied correlations, we solve the optimization problem of finding new data ratios between (y, z) classes to adjust the correlations for the changes, giving the approach at hand an opportunity to perform better. do. The new data is then used as input to a fair algorithm.

도 1은 본 발명의 일 실시예에 따른 레이블과 민감한 그룹 속성 간의 상관 관계를 설명하기 위한 도면이다. FIG. 1 is a diagram illustrating the correlation between labels and sensitive group attributes according to an embodiment of the present invention.

제안하는 프레임워크의 핵심 장점은 불공정 완화를 위한 전처리(110)와 처리 중(120)의 디커플링이다. 도 1(a)는 상관 관계 변화에 따른 하이-레벨의 워크플로우를 설명하기 위한 도면이다. 여기서 전처리(110)는 도 1(a)에 도시된 바와 같이 처리 중(120)에서 불공정 완화의 나머지를 수행하는 동안 상관 관계를 조정한다. 본 발명에서는 전처리가 이론적 분석에 기초하여 처리 중 접근 방식의 성능을 향상시키는 것을 목표로 하는 반면, 공정성을 위한 기존의 전처리 접근 방식은 단순히 데이터의 편향을 제거하고 처리 중인 접근 방식에 명시적으로 이익을 주도록 설계되지 않았다는 점에 주목한다. 따라서 제안하는 프레임워크는 전처리(110)와 처리 중(120) 두 단계를 모두 활용한다. 다시 말해, 본 발명의 실시예에 따른 전처리(110)는 데이터 문제를 해결하고, 처리 중(120)은 개선된 데이터에 대해 최고의 결과를 수행한다. 제안하는 프레임워크는 단일 지표의 공정성을 향상시키는 데 유용할 뿐만 아니라 여러 지표를 지원하도록 확장될 수 있다.The key advantage of the proposed framework is the decoupling of pre-processing (110) and during processing (120) to mitigate unfairness. Figure 1(a) is a diagram for explaining a high-level workflow according to correlation changes. Here, preprocessing 110 adjusts the correlation while performing the remainder of unfairness mitigation in processing 120, as shown in Figure 1(a). In the present invention, preprocessing aims to improve the performance of the in-processing approach based on theoretical analysis, whereas existing preprocessing approaches for fairness simply debias the data and explicitly benefit the in-processing approach. Note that it is not designed to give . Therefore, the proposed framework utilizes both preprocessing (110) and during processing (120) steps. In other words, preprocessing 110 according to an embodiment of the present invention solves data problems, and processing 120 performs the best results on the improved data. The proposed framework is not only useful for improving the fairness of a single indicator, but can also be extended to support multiple indicators.

공정성을 위한 대부분의 처리 중 접근 방식은 훈련(Training) 및 배치(Deployment) 분포가 동일하다고 가정하며, 이는 또한 동일한 수준의 편향을 가정한다는 것을 의미한다. 그러나 종래기술에서 확인한 바와 같이 데이터 편향은 시간이 지남에 따라 바뀔 수 있으며, 이는 배치 데이터가 실제로 훈련 데이터와 다른 편향을 가질 수 있음을 의미한다. 공정한 훈련에서 데이터 편향은 레이블과 민감한 그룹 속성 z 사이의 관계를 반영한다. 예를 들어, 모든 포지티브(positive) 레이블이 동일한 그룹에 있는 경우 데이터는 매우 편향된 것으로 간주될 수 있다. 반대로 레이블이 모든 그룹에 랜덤하게 할당된 경우 데이터는 편향이 없는 것으로 간주될 수 있다.Most in-process approaches for fairness assume that the Training and Deployment distributions are identical, which also means they assume the same level of bias. However, as confirmed in the prior art, data bias can change over time, meaning that batch data may actually have a different bias than training data. In fair training, data bias reflects the relationship between the label and the sensitive group attribute z. For example, if all positive labels are in the same group, the data may be considered highly biased. Conversely, if labels are randomly assigned to all groups, the data can be considered unbiased.

배치 데이터의 편향 변화는 훈련된 모델의 성능에 부정적인 영향을 미칠 수 있다. 도 1(b)는 배치 중 편향 변화에 의해 공정한 분류기의 성능의 영향을 설명하기 위한 예시를 보여준다. 여기서, 편향은 상관 관계를 통해 표현될 수 있다. 훈련 분포는 편향되어 있으며, 여기서 그룹 2(140)는 그룹 1(130)보다 더 많은 포지티브 레이블을 가진다. 반면에, 배치 분포에서는 포지티브 레이블이 각 그룹에 대해 동일하게 분포되어 있으므로 편향이 감소한다. 도 1(b)에 도시된 훈련 데이터(150)와 같이 DP 공정성이 완벽한 훈련 데이터에 대해 공정한 분류기를 훈련한다고 가정하지만(즉, Pr(=1)은 그룹에 대해 동일함)결과적으로 정확도는 다르다. 배치 데이터(160)에서 정확도가 여전히 불완전한 상태로 유지되는 동안 DP가 악화된다. 근본적인 문제는 분류기가 다른 편향을 염두에 두고 훈련되었다는 점이다.Changes in bias in batch data can negatively impact the performance of a trained model. Figure 1(b) shows an example to illustrate the impact of bias changes during deployment on the performance of a fair classifier. Here, bias can be expressed through correlation. The training distribution is skewed, where group 2 (140) has more positive labels than group 1 (130). On the other hand, in batch distribution, positive labels are distributed equally for each group, thus reducing bias. Although DP fairness assumes training a fair classifier on perfect training data, such as training data 150 shown in Figure 1(b) (i.e., Pr( =1) is the same for the groups) resulting in different accuracies. DP deteriorates while accuracy remains imperfect in batch data 160. The fundamental problem is that the classifier is trained with different biases in mind.

다음으로, 본 발명의 실시예에 따른 표기법 및 공정성 지표 설명한다. Next, the notation and fairness index according to an embodiment of the present invention will be described.

를 모델 가중치, 를 모형의 입력 특징, 를 참 레이블, 를 예측 레이블로 지정한다. 여기서 는 (x, )의 함수이다. 는 민감한 그룹 속성(예를 들어, 성별 또는 인종)이라고 하자. 본 발명에서는 이진 설정을 가정한다. 여기서 DP는 그룹에 대한 포지티브 예측률이 같을 때(즉, 이고 EO는 그룹(예를 들어, ,)에 대한 레이블별 정확도가 동일할 때 달성된다. the model weights, is the input feature of the model, true label, Designate as the prediction label. here is (x, ) is a function of Let be a sensitive group attribute (e.g., gender or race). In the present invention, binary settings Assume: Here, DP is when the positive prediction rates for the groups are equal (i.e. and EO is a group (e.g. , ) is achieved when the accuracy for each label is the same.

도 2는 본 발명의 일 실시예에 따른 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법을 설명하기 위한 흐름도이다. Figure 2 is a flowchart illustrating a fair model training method according to correlation changes in machine learning according to an embodiment of the present invention.

제안하는 따른 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 방법은 전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 단계(210), 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계(220) 및 후처리부를 통해 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력하는 단계(230)를 포함한다. The proposed fair model training method according to correlation changes in machine learning extracts samples of classes related to correlations that represent changes in bias between the label and group properties of data for model training through a preprocessor and calculates the correlation changes. A step of performing preprocessing to reduce the data (210), a step of adjusting the data ratio between the label and group attributes of the data according to the change in the preprocessed correlation through a process model processor (220), and a model trained through a postprocessor. It includes a step 230 of inputting data adjusted according to the adjusted data rate into a process algorithm for model training so that the output of satisfies a predetermined fairness.

단계(210)에서, 전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행한다. In step 210, a sample of a correlation class indicating a change in bias between the label and group attributes of data for model training is extracted through a preprocessor, and preprocessing is performed to reduce the correlation change.

훈련 데이터에 대한 성능이 배치 데이터로 전달되도록 배치 데이터에서 주어진 그룹 속성의 조건부 확률 차이의 상관 상수 및 상기 상관 상수의 범위를 분포 추정 기법을 사용하여 구하고, 상기 상관 상수의 범위 및 상기 추출된 샘플에 대한 클래스의 가중치를 사용하여 상기 조건부 확률 차이에 비례하는 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행한다. So that the performance on the training data is transferred to the batch data, the correlation constant of the conditional probability difference of the given group attribute in the batch data and the range of the correlation constant are obtained using a distribution estimation technique, and the range of the correlation constant and the extracted sample are calculated. Preprocessing is performed to reduce the correlation change proportional to the conditional probability difference using the weight of the class.

단계(220)에서, 상기 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정한다. In step 220, the data ratio between the label and group attributes of the data is adjusted according to the change in the preprocessed correlation through the process model processing unit.

상기 데이터의 레이블과 그룹 속성 간의 데이터 비율 조정 과정에서 정보 손실을 줄이기 위해 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하는 것을 목표로 하는 함수를 설정한다. In order to reduce information loss in the process of adjusting the data rate between the label and group properties of the data, a function is set that aims to minimize the squared difference between the original data rate and the adjusted data rate.

본 발명의 실시예에 따르면, 상기 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하기 위한 함수에 대하여 비볼록 QCQP(quadratically constrained quadratic problem)의 최적 값의 하한을 제공하는 볼록 이완 SDP(Semidefinite Programming) 완화를 적용한다. According to an embodiment of the present invention, a convex relaxation Semidefinite Programming (SDP) method that provides a lower bound on the optimal value of a non-convex quadratically constrained quadratic problem (QCQP) for a function for minimizing the squared difference between the original data rate and the adjusted data rate is used. ) Apply relaxation.

상기 SDP 완화를 통해 조정된 새로운 데이터 비율을 반영함으로써, 상기 전처리를 통한 상관 관계 조정과 데이터 비율에 대한 공정성 완화를 분리할 수 있다. By reflecting the new data rate adjusted through the SDP relaxation, correlation adjustment through the preprocessing and fairness relaxation for the data rate can be separated.

마지막으로 단계(230)에서, 후처리부를 통해 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력한다. Finally, in step 230, the data adjusted according to the adjusted data rate is input to the process algorithm for model training so that the output of the model trained through the post-processing unit satisfies a predetermined fairness.

도 3은 본 발명의 일 실시예에 따른 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 시스템의 구성을 나타내는 도면이다. Figure 3 is a diagram showing the configuration of a fair model training system according to correlation changes in machine learning according to an embodiment of the present invention.

본 실시예에 따른 공정한 모델 훈련 시스템(300)은 프로세서(310), 버스(320), 네트워크 인터페이스(330), 메모리(340) 및 데이터베이스(350)를 포함할 수 있다. 메모리(340)는 운영체제(341) 및 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 루틴(342)을 포함할 수 있다. 프로세서(310)는 전처리부(311), 공정 모델 처리부(312) 및 후처리부(313)를 포함할 수 있다. 다른 실시예들에서 공정한 모델 훈련 시스템(300)은 도 3의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 공정한 모델 훈련 시스템(300)은 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.The fair model training system 300 according to this embodiment may include a processor 310, a bus 320, a network interface 330, a memory 340, and a database 350. The memory 340 may include an operating system 341 and a fair model training routine 342 according to correlation changes in machine learning. The processor 310 may include a pre-processing unit 311, a process model processing unit 312, and a post-processing unit 313. In other embodiments, fair model training system 300 may include more components than those of FIG. 3 . However, there is no need to clearly show most prior art components. For example, the fair model training system 300 may include other components such as a display or transceiver.

메모리(340)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(340)에는 운영체제(341)와 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 루틴(342)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(340)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(330)를 통해 메모리(340)에 로딩될 수도 있다. The memory 340 is a computer-readable recording medium and may include a non-permanent mass storage device such as random access memory (RAM), read only memory (ROM), and a disk drive. Additionally, the memory 340 may store program codes for a fair model training routine 342 according to correlation changes in the operating system 341 and machine learning. These software components may be loaded from a computer-readable recording medium separate from the memory 340 using a drive mechanism (not shown). Such separate computer-readable recording media may include computer-readable recording media (not shown) such as floppy drives, disks, tapes, DVD/CD-ROM drives, and memory cards. In another embodiment, software components may be loaded into the memory 340 through the network interface 330 rather than a computer-readable recording medium.

버스(320)는 공정한 모델 훈련 시스템(300)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(320)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.Bus 320 may enable communication and data transfer between components of fair model training system 300. Bus 320 may be configured using a high-speed serial bus, parallel bus, storage area network (SAN), and/or other suitable communication technology.

네트워크 인터페이스(330)는 공정한 모델 훈련 시스템(300)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(330)는 공정한 모델 훈련 시스템(300)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다.Network interface 330 may be a computer hardware component for connecting fair model training system 300 to a computer network. Network interface 330 may connect fair model training system 300 to a computer network through a wireless or wired connection.

데이터베이스(350)는 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련을 위해 필요한 모든 정보를 저장 및 유지하는 역할을 할 수 있다. 도 3에서는 공정한 모델 훈련 시스템(300)의 내부에 데이터베이스(350)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.The database 350 may serve to store and maintain all information necessary for fair model training according to correlation changes in machine learning. In Figure 3, it is shown that the database 350 is built and included inside the fair model training system 300, but it is not limited to this and may be omitted depending on the system implementation method or environment, or all or part of the database may be included. It is also possible to exist as an external database built on a separate system.

프로세서(310)는 기본적인 산술, 로직 및 공정한 모델 훈련 시스템(300)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(340) 또는 네트워크 인터페이스(330)에 의해, 그리고 버스(320)를 통해 프로세서(310)로 제공될 수 있다. 프로세서(310)는 전처리부(311), 공정 모델 처리부(312) 및 후처리부(313)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(340)와 같은 기록 장치에 저장될 수 있다.The processor 310 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations of the fair model training system 300. Commands may be provided to processor 310 by memory 340 or network interface 330 and via bus 320. The processor 310 may be configured to execute program codes for the pre-processing unit 311, the process model processing unit 312, and the post-processing unit 313. These program codes may be stored in a recording device such as memory 340.

전처리부(311), 공정 모델 처리부(312) 및 후처리부(313)는 도 2의 단계들(210~230)을 수행하기 위해 구성될 수 있다.The pre-processing unit 311, the process model processing unit 312, and the post-processing unit 313 may be configured to perform steps 210 to 230 of FIG. 2.

공정한 모델 훈련 시스템(300)은 전처리부(311), 공정 모델 처리부(312) 및 후처리부(313)를 포함할 수 있다.The fair model training system 300 may include a pre-processing unit 311, a process model processing unit 312, and a post-processing unit 313.

본 발명의 실시예에 따른 전처리부(311)는 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행한다. The preprocessor 311 according to an embodiment of the present invention extracts samples of classes related to correlations that indicate changes in bias between labels and group attributes of data for model training and performs preprocessing to reduce the correlation changes. do.

본 발명의 실시예에 따른 전처리부(311)는 훈련 데이터에 대한 성능이 배치 데이터로 전달되도록 배치 데이터에서 주어진 그룹 속성의 조건부 확률 차이의 상관 상수 및 상기 상관 상수의 범위를 분포 추정 기법을 사용하여 구하고, 상기 상관 상수의 범위 및 상기 추출된 샘플에 대한 클래스의 가중치를 사용하여 상기 조건부 확률 차이에 비례하는 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행한다. The preprocessor 311 according to an embodiment of the present invention uses a distribution estimation technique to determine the correlation constant of the conditional probability difference of a given group attribute in batch data and the range of the correlation constant so that the performance on training data is transferred to batch data. and perform preprocessing to reduce the correlation change proportional to the conditional probability difference using the range of the correlation constant and the weight of the class for the extracted sample.

본 발명의 실시예에 따른 공정 모델 처리부(312)는 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정한다. The process model processing unit 312 according to an embodiment of the present invention adjusts the data ratio between the label and group attributes of the data according to the change in the preprocessed correlation.

본 발명의 실시예에 따른 공정 모델 처리부(312)는 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율 조정 과정에서 정보 손실을 줄이기 위해 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하는 것을 목표로 하는 함수를 설정한다. The process model processing unit 312 according to an embodiment of the present invention aims to minimize the squared difference between the original data rate and the adjusted data rate in order to reduce information loss in the process of adjusting the data rate between the label and group attributes of the data. Set up a function.

본 발명의 실시예에 따르면, 상기 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하기 위한 함수에 대하여 비볼록 QCQP(quadratically constrained quadratic problem)의 최적 값의 하한을 제공하는 볼록 이완 SDP(Semidefinite Programming) 완화를 적용한다. According to an embodiment of the present invention, a convex relaxation Semidefinite Programming (SDP) method that provides a lower bound on the optimal value of a non-convex quadratically constrained quadratic problem (QCQP) for a function for minimizing the squared difference between the original data rate and the adjusted data rate is used. ) Apply relaxation.

상기 SDP 완화를 통해 조정된 새로운 데이터 비율을 반영함으로써, 상기 전처리를 통한 상관 관계 조정과 데이터 비율에 대한 공정성 완화를 분리할 수 있다. By reflecting the new data rate adjusted through the SDP relaxation, correlation adjustment through the preprocessing and fairness relaxation for the data rate can be separated.

본 발명의 실시예에 따른 후처리부(313)는 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력한다. 아래에서 본 발명의 일 실시예에 따른 머신러닝에서 상관 관계 변화에 따른 공정한 모델 훈련 과정에 대하여 더욱 상세히 설명한다. The post-processing unit 313 according to an embodiment of the present invention inputs data adjusted according to the adjusted data rate into a process algorithm for model training so that the output of the trained model satisfies predetermined fairness. Below, a fair model training process according to correlation changes in machine learning according to an embodiment of the present invention will be described in more detail.

본 발명의 실시예에 따른 상관 관계 변화에 따른 공정한 훈련에서, 데이터 편향 변화의 영향을 체계적으로 분석하기 위해, 먼저 민감한 그룹에 대한 데이터 편향을 명시적으로 측정하는 데 사용할 수 있는 y와 z 사이의 상관 관계를 통해 달성 가능한 공정한 훈련 성과를 분석하고, 이 상관 관계가 바뀔 때 공정한 처리 중에 대한 한계에 대해 분석한다. 본 발명에서는 상관 관계를 다음과 같이 정의한다. In fair training based on correlation changes according to embodiments of the present invention, in order to systematically analyze the impact of data bias changes, first, a correlation between y and z can be used to explicitly measure data bias for sensitive groups. We analyze the fair training performance that can be achieved through correlation, and analyze the limitations of fair processing when this correlation changes. In the present invention, correlation is defined as follows.

(y, z)-상관 관계에서, 데이터 편향은 레이블 y와 민감한 그룹 속성 z 사이의 상관관계를 통해 나타낼 수 있으며, 여기서 상관 관계는 두 랜덤 변수 사이의 통계적 관계를 나타낸다. 따라서 본 발명에서는 피어슨의 상관 계수 을 사용하여 (y,z) 상관 관계를 정의한다. 이는 실제 시나리오에서 편향을 효과적으로 포착하는 것으로 알려져 있다. 여기서, 는 공분산이고, 는 표준 편차이다. y와 z가 이진수라고 가정할 때, 다음과 같이 를 표현할 수 있다. In (y, z)-correlation, data bias can be represented through the correlation between a label y and a sensitive group attribute z, where the correlation represents a statistical relationship between two random variables. Therefore, in the present invention, Pearson's correlation coefficient Use to define (y,z) correlation. This is known to effectively capture bias in real-world scenarios. here, is the covariance, is the standard deviation. Assuming y and z are binary numbers, as follows: can be expressed.

본 발명에서는 데이터의 (y, z) 상관 관계를 기반으로 공정한 훈련의 기본 정확도와 공정성 한계를 식별한다. 먼저 단일 공정성 지표를 통해 공정성을 개선하는 가장 일반적인 예시를 분석한다. 그런 다음 여러 지표의 공정성을 개선하는 더욱 복잡한 예시로 분석을 확장한다. 두 경우 모두, (y, z) 상관 관계가 공정한 훈련의 달성 가능한 성과를 결정한다는 것을 보여준다.In the present invention, the basic accuracy and fairness limits of fair training are identified based on the (y, z) correlation of the data. First, we analyze the most common examples of improving fairness through a single fairness indicator. We then extend the analysis to more complex examples that improve the fairness of multiple metrics. In both cases, we show that the (y, z) correlation determines the achievable performance of fair training.

예시 1은 단일 지표에 대한 공정한 훈련 그룹 공정성을 개선할 때 공정한 훈련은 정확도-공정성 트레이드오프에 직면하는 것으로 알려져 있으며, 여기서 모델을 더 공정하게 만들기 위해 정확도가 희생된다. 최근에는 인구 통계학적 패리티의 정확도-공정성 트레이드오프가 데이터에서 y와 z가 얼마나 정렬되어 있는지에 따라 영향을 받는다는 것을 조사한다. 예를 들어, y와 z 값이 모든 사례에서 동일한 경우 높은 공정성을 달성하려면 낮은 정확도가 필요할 수 있다. 반대로 y와 z를 임의로 설정하면 공정성과 정확도를 함께 얻을 수 있다. 다음 명제는 이러한 측면에서 종래기술들의 결과를 보여준다.Example 1 shows fair training on a single metric. When improving group fairness, fair training is known to face an accuracy-fairness tradeoff, where accuracy is sacrificed to make the model fairer. Recently, we investigate how the accuracy-fairness tradeoff of demographic parity is affected by how aligned y and z are in the data. For example, if the y and z values are the same in all cases, achieving high fairness may require low accuracy. Conversely, if you set y and z arbitrarily, you can achieve both fairness and accuracy. The following proposition shows the results of the prior art in this respect.

명제 1: 모델이 인구 통계학적 패리티 훈련을 받을 때 y와 z 사이의 높은 정렬은 더 나쁜 정확도-공정성 트레이드오프로 이어진다. 본 발명의 목적을 위해 명제 1에 기초한 (y,z)-상관 관계를 사용하여 유사한 관계를 추론한다. 다음 정리는 (y, z) 상관 관계와 일부 조건에서 주어진 z의 조건부 확률 사이의 연결을 만든다. Proposition 1: When a model is trained on demographic parity, higher alignment between y and z leads to a worse accuracy-fairness tradeoff. For the purposes of the present invention, a similar relationship is inferred using (y,z)-correlation based on Proposition 1. The following theorem makes a connection between the (y, z) correlation and the conditional probability of z given some conditions.

정리 2: y와 z의 주변 확률(예를 들어, Pr(y = y)과 Pr(z = z)이 동일하게 유지되면, (y, z)-변환 는 주어진 다른 z 값(예를 들어, Pr(y = 1|z = 1) - Pr(y = 1|z = 0)의 조건부 확률 차이에 비례한다. Theorem 2: If the marginal probabilities of y and z (e.g. Pr(y = y) and Pr(z = z) remain the same, then (y, z)-transform is proportional to the difference in conditional probabilities given different z values (e.g., Pr(y = 1|z = 1) - Pr(y = 1|z = 0).

정리 2를 명제 1에 적용함으로써, (y, z)-상관 관계가 특정 조건에서 정확도-공정성 트레이드오프도 결정한다는 것을 추론할 수 있다. 종래기술에 따르면 y와 z 사이의 정렬은 각 그룹에서 특정 레이블을 가진 조건들의 수로 정의된다. 따라서 으로 정렬을 측정할 수 있다. 여기서 이다. 이후, 이 항을 다른 z 값이 주어진 y의 조건부 확률 사이의 차이로 변환할 수 있으며 이는 정리 2에서 사용된다. 결과적으로 다음과 같은 결과를 도출하며, 이는 (y, z) 변환이 달성 가능한 정확도-공정성 트레이드오프를 결정한다는 것을 보여준다.By applying Theorem 2 to Proposition 1, we can infer that the (y, z)-correlation also determines the accuracy-fairness tradeoff under certain conditions. According to the prior art, the alignment between y and z is defined as the number of conditions with a specific label in each group. thus Alignment can be measured with here and am. We can then transform this term into the difference between the conditional probabilities of y given different values of z, which is used in Theorem 2. As a result, we obtain the following results, which show that the (y, z) transformation determines the achievable accuracy-fairness tradeoff.

결과 3: 모델이 인구 통계학적 패리티 훈련을 받고 y와 z의 주변 확률이 동일하게 유지될 때, 모델의 달성 가능한 정확도-공정성 균형은 (y, z)-상관 관계에 의해 결정된다. 상관 관계가 높을수록 정확도-공정성 트레이드오프가 악화된다. Result 3: When a model is trained on demographic parity and the marginal probabilities of y and z are kept equal, the achievable accuracy-fairness balance of the model is determined by the (y, z)-correlation. The higher the correlation, the worse the accuracy-fairness tradeoff.

비고 4: 본 발명의 실시예에서는 주변 확률이 결과 3에서 고정된다는 가정을 완화할 수 있다. y와 z의 주변 확률이 각각 로 변경되면, 결과 3은 다음과 같이 일반화될 수 있다. 달성 가능한 정확도-공정성 트레이드오프는 에 의해 결정된다. 여기서 는 (y,z)-상관 관계이고, Remark 4: In embodiments of the present invention, the assumption that the marginal probability is fixed at outcome 3 can be relaxed. The marginal probabilities of y and z are respectively and Changed to , result 3 can be generalized as follows. The achievable accuracy-fairness trade-off is is determined by here is the (y,z)-correlation,

이다. am.

따라서 이 높을수록 정확도-공정성 트레이드오프가 악화된다. 제안하는 프레임워크에서는 y와 z의 주변 확률이 까지 변경되도록 허용한다. thus The higher this is, the worse the accuracy-fairness trade-off becomes. In the proposed framework, the marginal probabilities of y and z are and Allow changes up to .

도 4는 본 발명의 일 실시예에 따른 상관 관계 변화가 공정한 훈련에 미치는 영향을 설명하기 위한 그래프이다.Figure 4 is a graph to explain the effect of correlation changes on fair training according to an embodiment of the present invention.

본 발명의 실시예에 따른 시뮬레이션을 통해 이론적 관찰을 확인한다. 도 4(a)는 공정성 측정을 위해 DP(Demographic Parity)를 사용할 때 낮은 상관 관계와 높은 상관 관계를 가진 두 개의 합성 데이터셋에서 분류기의 정확도-불공정성 성능을 보여준다. 낮은 값이 더 나은 공정성(즉, 값이 0일 때 완벽하게 공정함)을 나타내는 불공정성을 측정한다. 두 데이터셋에서 다양한 합성 분류기를 생성하여 가능한 모델 성능의 전체 범위를 보여준다. Low Corr.(High Corr.)은 상관 관계가 낮은(높은) 데이터셋의 분류기이다. 결과적으로 상관 관계가 낮으면 정확도-공정성 트레이드오프가 개선된다. Theoretical observations are confirmed through simulations according to embodiments of the present invention. Figure 4(a) shows the accuracy-unfairness performance of the classifier on two synthetic datasets with low and high correlation when using Demographic Parity (DP) for fairness measurement. It measures unfairness where lower values indicate better fairness (i.e., a value of 0 is perfectly fair). We generate a variety of synthetic classifiers from both datasets, showing the full range of possible model performance. Low Corr. (High Corr.) is a classifier for datasets with low (high) correlation. As a result, lower correlations improve the accuracy-fairness tradeoff.

비고 5: 결과 3이 오류율(EO)에 반드시 적용되는 것은 아니라는 점에 주목하며, 이 값은 실제 레이블에서 조건화된 정확도가 그룹에서 동일할 때 달성된다. 이론적으로 완벽한 분류기는 EO에 대한 완벽한 공정성을 달성할 수 있으므로 (y, z) 상관 관계는 EO에 대한 정확도-공정성 트레이드오프의 한계를 결정하지 않는다. 그러나 분류기는 실제로 완벽하지 않으며, 경험적으로 (y,z) 상관 관계가 높을수록 EO에 대한 정확도-공정성 트레이드오프도 더 나쁘게 이어진다는 것을 관찰한다. Note 5: Note that Result 3 does not necessarily apply to the error rate (EO), which is achieved when the conditioned accuracy on the true label is the same across groups. In theory, a perfect classifier can achieve perfect fairness for EO, so the (y, z) correlation does not determine the limits of the accuracy-fairness tradeoff for EO. However, classifiers are not perfect in practice, and empirically we observe that the higher the (y,z) correlation, the worse the accuracy-fairness tradeoff for EO.

예시 2는 여러 지표에 대한 공정한 훈련 단일 지표 시나리오를 넘어 여러 공정성 지표를 함께 지원하도록 분석을 확장한다. 다양한 맥락에서 공정성을 해결하기 위해 여러 지표를 지원해야 하지만 대부분의 공정성 작업은 이러한 문제를 해결하지 못한다. 주요 과제는 그룹 공정성 지표가 상호 배타적인 것으로 알려져 있다는 것이며, 이는 데이터가 완전히 편향되지 않은 경우가 아니면 이러한 지표를 함께 완벽하게 만족할 수 없다는 것을 의미한다. 본 발명의 실시예에 따른 (y, z) 상관 관계는 원칙적인 방식으로 가능한 한 많은 방법으로 여러 공정성 지표를 함께 지원할 수 있는 기회를 제공한다. 본 발명에서는 두 가지 지표를 지원하는 데 중점을 둔다. Example 2 extends the analysis beyond the single indicator scenario to support multiple fairness indicators together. Addressing fairness in various contexts requires supporting multiple metrics, but most fairness work does not address these issues. The main challenge is that group fairness metrics are known to be mutually exclusive, meaning that they cannot be perfectly satisfied together unless the data is completely unbiased. The (y, z) correlation according to embodiments of the present invention provides the opportunity to support multiple fairness indicators together in as many ways as possible in a principled manner. The present invention focuses on supporting two indicators.

먼저 모델이 (y, z) 상관 관계와 두 지표의 공정성 향상에 대한 힌트를 얻기 위해 DP와 오류율(EO)을 모두 개선할 수 있는 시기를 분석한다. 여기서 완벽한 공정성의 완화된 버전인 두 지표의 -공정성에 초점을 맞추고, 여기서 는 모델의 불공정성 수준을 나타낸다. First, we analyze when the model can improve both DP and error rate (EO) to get hints about the (y, z) correlation and improving the fairness of both metrics. Here, the two metrics are a relaxed version of perfect fairness. -Focus on fairness, where represents the level of unfairness of the model.

예를 들어, 로, 로 정의할 수 있다. 이고 이 낮을수록 공정성이 높다는 것을 의미한다. 다음 명제는 모델이 를 모두 달성할 수 있는 경우를 보여준다. for example, cast as, cast It can be defined as: ego The lower the value, the higher the fairness. The following proposition is that the model is and It shows a case where all can be achieved.

명제 6 : 모델이 를 모두 달성한다 하자. 그러면 다음 부등식을 유지한다. Proposition 6 : model and Let's assume that all are achieved. Then, the following inequality holds:

여기서 달성 가능한 공정성 수준 는 주어진 z(즉, ) 조건부 확률 차이로 표시되는 데이터 편향의 영향을 받는다. 예를 들어, 데이터가 매우 편향되어 있는 경우 왼쪽의 두 번째 항(즉, )이 감소하지 않는 한 모델은 높은 공정성(즉, 낮은 )을 달성할 수 없다. 그러나 두 번째 항은 정확도와 관련이 있으며, 정확도를 0으로 낮추면 모델이 모두 동일한 랜덤 예측 또는 예측을 하게 된다. 따라서 정리 2와 명제 6은 다음과 같은 결과를 제공한다.The level of fairness achievable here is given z (i.e. ) are subject to data bias, expressed as conditional probability differences. For example, if the data are highly skewed, the second term on the left (i.e. ) does not decrease, the model has high fairness (i.e. low ) cannot be achieved. However, the second term is related to accuracy, and lowering the accuracy to 0 causes the models to all make the same random predictions or predictions. Therefore, Theorem 2 and Proposition 6 provide the following results.

결과 7: 모델이 DP와 EO 모두에서 훈련되고 y와 z의 주변 확률이 변하지 않을 때, 정확도가 변하지 않을 경우 모델의 달성 가능한 공정성은 (y, z)-상관 관계에 의해 결정된다. 상관 관계가 높을수록 달성 가능한 공정성이 낮아진다. Result 7: When a model is trained on both DP and EO and the marginal probabilities of y and z do not change, the achievable fairness of the model when the accuracy does not change is determined by the (y, z)-correlation. The higher the correlation, the lower the fairness that can be achieved.

단일 지표 사례와 유사하게, 도 4(b)와 같이 시뮬레이션을 통해 여러 지표를 지원하는 이론적 결과를 확인한다. 다시 말해, 낮은 상관 관계는 분류기가 더 나은 정확도-공정성 트레이드오프를 달성할 수 있도록 한다는 것을 알 수 있다. Similar to the single indicator case, theoretical results supporting multiple indicators are confirmed through simulation, as shown in Figure 4(b). In other words, we see that lower correlation allows the classifier to achieve a better accuracy-fairness tradeoff.

본 발명의 실시예에 따르면, 데이터 상관 관계에 따라 공정한 훈련의 성능 범위가 다르기 때문에 일부 훈련 데이터에서 학습된 공정한 분류기가 상관 관계가 다른 배치 데이터에서 최적의 성능을 가질 필요는 없다. 본 발명은 일 때 두 데이터 분포 D1과 D2 사이에 상관 관계 변화가 있다고 말한다. 여기서 는 Di의 (y, z) 상관 관계를 나타낸다. 여기서 상관 관계 변화는 데이터 분포 간의 편향 변화를 반영한다. According to an embodiment of the present invention, since the performance range of fair training is different depending on data correlation, a fair classifier learned on some training data does not necessarily have optimal performance on batch data with different correlations. This invention When , we say that there is a change in correlation between the two data distributions D1 and D2. here represents the (y, z) correlation of Di. Here, changes in correlation reflect changes in bias between data distributions.

상관 관계 변화가 공정한 훈련에 어떻게 영향을 미치는지 나타내는 도 4의 시뮬레이션을 참조하여, 높은 상관 관계를 가진 훈련 분포에서 낮은 상관 관계를 가진 배치 분포로의 상관관계 전환을 고려한다. 도 4의 검은 별로 표시되는 높은 상관 관계 데이터에 대해 훈련된 몇 가지 최적의 분류기에서 시작한다. 이러한 분류기는 유감스럽게도 상관 관계가 낮은 배치 데이터(검은 사각형)에 대해 차선의 성능을 발휘한다. 따라서, 동일한 훈련 및 배치 데이터 분포를 가정하는 처리 중 접근 방식은 상관 관계 변화 하에서 배치 분포에서 더 나은 공정성과 정확도를 달성할 기회를 잃게 된다.Referring to the simulation in Figure 4, which illustrates how changes in correlation affect fair training, we consider a correlation transition from a training distribution with high correlation to a batch distribution with low correlation. We start with several optimal classifiers trained on highly correlated data, indicated by the black stars in Figure 4. Unfortunately, these classifiers perform suboptimally on low-correlation batch data (black squares). Therefore, in-process approaches that assume identical training and batch data distributions lose the opportunity to achieve better fairness and accuracy in the batch distribution under correlation changes.

본 발명에서는 (y, z)-상관 관계를 데이터 비율 조정에 사용하는 전처리 접근 방식을 제안하여 기존의 처리 중 접근 방식이 최대 정확도와 공정성 성능을 달성할 수 있도록 한다.In the present invention, we propose a preprocessing approach that uses (y, z)-correlation for data scaling, allowing existing in-processing approaches to achieve maximum accuracy and fairness performance.

본 발명의 실시예에 따른 정리 2를 사용하여 (y, z) 상관 관계 가 주어진 최상의 (y, z) 클래스 비율을 찾는 최적화를 설계한다. 정리 2는 가 일부 가정에서 조건부 확률 차이에 비례한다는 것을 보여준다. 조건부 확률은 클래스 가중치를 사용하여 작성할 수 있다. 각 (y=y, z=z) 클래스의 원래 데이터 비율을 라고 하자. 새 데이터 비율을 로 지정하자. 이 비율은 배치 데이터의 변화된 상관 관계를 충족하는 데 필요하다. 임에 유의한다. (y, z) correlation using Theorem 2 according to an embodiment of the present invention Design an optimization to find the best (y, z) class ratio given . Theorem 2 is Show that is proportional to the difference in conditional probabilities under some assumptions. Conditional probabilities can be written using class weights. Proportion of original data for each (y=y, z=z) class Let's say new data rate Let's specify it as This ratio is necessary to accommodate the changing correlation of the batch data. Please note that

또한, c가 배치 데이터에서 주어진 z의 조건부 확률 사이의 차이인 상관 상수라고 가정하자. 를 상관 상수 c(즉, )의 범위라 하자. 범위는 분포 추정 기법을 사용하여 변화된 상관 관계를 계산하고 신뢰 구간을 사용하여 범위를 생성할 수 있다. 비고 4에서 설명된 바와 같이 y와 z의 주변 확률이 각각 최대 까지 변할 수 있는 정리 2에서 가정의 완화된 버전을 사용한다. 이러한 조건에서, 다른 전처리 접근 방식과 유사하게 정보 손실을 줄이기 위해 원래 데이터 비율과 새 데이터 비율 간의 제곱 차이를 최소화하는 것을 목표로 하는 문제를 설정한다. Also, let c be the correlation constant, which is the difference between the conditional probabilities of z given the batch data. with the correlation constant c (i.e. Let's say it is the range of ). Ranges can be calculated using distribution estimation techniques to calculate the varied correlation and generate ranges using confidence intervals. As explained in Note 4, the marginal probabilities of y and z are each and We use a relaxed version of the assumption in Theorem 2 that can vary up to Under these conditions, we set up a problem that aims to minimize the squared difference between the original and new data rates to reduce information loss, similar to other preprocessing approaches.

이고, 이다. 정확한 상관 관계 변화 값(예를 들어, )을 알면 첫 번째 제약 조건을 로 다시 작성할 수 있다. ego, am. The exact correlation change value (e.g. ), the first constraint is It can be rewritten as

최적화는 비볼록 QCQP(quadratically constrained quadratic problem)이며, 여기서 목표는 2차이고, 첫 번째 제약은 비볼록 2차이다. 그러나 비볼록 QCQP는 해결하기 어려운 것으로 알려져 있다). 따라서, 본 발명에서는 원래 비볼록 QQP의 최적 값의 합리적인 하한을 제공하는 것으로 알려진 볼록 이완 중 하나인 SDP(Semidefinite Programming) 완화를 적용한다:The optimization is a non-convex quadratically constrained quadratic problem (QCQP), where the objective is quadratic and the first constraint is non-convex quadratic. However, non-convex QCQP is known to be difficult to solve). Therefore, in the present invention, we apply Semidefinite Programming (SDP) relaxation, one of the convex relaxations known to provide a reasonable lower bound of the optimal value of the original non-convex QQP:

상기 SDP 완화 문제는 이제 볼록하므로 볼록 최적화를 통해 해결할 수 있다.Since the above SDP relaxation problem is now convex, it can be solved through convex optimization.

도 5 본 발명의 일 실시예에 따른 상관 관계 변화를 반영한 공정한 훈련 알고리즘을 나타내는 도면이다. Figure 5 is a diagram showing a fair training algorithm reflecting correlation changes according to an embodiment of the present invention.

도 5를 참조하여, 본 발명의 실시예에 따른 상관 관계 변화를 반영한 공정한 훈련 알고리즘을 위한 전반적인 과정을 제시한다. 알고리즘은 크게 두 가지 부분으로 구성된다. 즉, 변화된 상관 관계를 반영하기 위한 전처리와 개선된 데이터 상에서 공정한 훈련을 위한 처리 중이다. 먼저 최적화의 SDP 완화를 기반으로 새로운 (y,z) 클래스 비율 를 찾으며, 이는 볼록 최적화 솔버(예를 들어, CVXPY)를 사용하여 해결할 수 있다. 그런 다음 각 (y=y, z=z) 클래스의 샘플 가중치 합계가 이 되도록 샘플별 가중치를 계산한다. 여기서 n은 원래 훈련 데이터의 총 샘플 수이다. 각 (y=y, z=z)-클래스 내에서 모든 샘플의 가중치는 동일하다. 그런 다음 샘플별 가중치에 따라 가중 샘플링을 통해 원래 훈련 데이터에서 새로운 데이터 D'를 도출한다. 마지막으로, D'에서 처리 중인 공정한 알고리즘 f를 사용하여 모델을 훈련한다. Referring to FIG. 5, an overall process for a fair training algorithm reflecting correlation changes according to an embodiment of the present invention is presented. The algorithm mainly consists of two parts. In other words, preprocessing to reflect the changed correlation and fair training on the improved data are in progress. First, a new (y,z) class ratio based on the SDP relaxation of the optimization. , which can be solved using a convex optimization solver (e.g., CVXPY). Then the sum of sample weights for each (y=y, z=z) class is Calculate the weight for each sample to achieve this. where n is the total number of samples in the original training data. Within each (y=y, z=z)-class, the weights of all samples are the same. Then, new data D' is derived from the original training data through weighted sampling according to the weight for each sample. Finally, we train the model using the fair algorithm f being processed in D'.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), etc. , may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. It can be embodied in . Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (10)

전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 단계;
공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계; 및
후처리부를 통해 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력하는 단계
를 포함하는 모델 훈련 방법.
Extracting samples of a class related to a correlation indicating a change in bias between the label and group attributes of data for model training through a preprocessor and performing preprocessing to reduce the change in the correlation;
adjusting the data ratio between the label and group attributes of the data according to the change in the preprocessed correlation through a process model processor; and
Inputting data adjusted according to the adjusted data ratio into a process algorithm for model training so that the output of the model trained through the post-processing unit satisfies predetermined fairness.
Model training method including.
제1항에 있어서,
상기 전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 단계;
배치 데이터에서 주어진 그룹 속성의 조건부 확률 차이의 상관 상수 및 상기 상관 상수의 범위를 분포 추정 기법을 사용하여 구하고,
상기 추출된 샘플에 대한 클래스의 가중치를 사용하여 조건부 확률 차이에 비례하는 데이터의 레이블과 그룹 속성 간의 상관 관계 변화를 감소시키기 위한 전처리를 수행하는
모델 훈련 방법.
According to paragraph 1,
Extracting samples of a class related to a correlation indicating a change in bias between the label and group attributes of data for model training through the preprocessor and performing preprocessing to reduce the change in the correlation;
Obtain the correlation constant of the conditional probability difference of a given group attribute in batch data and the range of the correlation constant using a distribution estimation technique,
Performing preprocessing to reduce the correlation change between the label and group attributes of the data proportional to the conditional probability difference using the weight of the class for the extracted sample.
Model training method.
제1항에 있어서,
상기 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계는,
상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정에서 정보 손실을 줄이기 위해 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하는 것을 목표로 하는 함수를 설정하는
모델 훈련 방법.
According to paragraph 1,
The step of adjusting the data ratio between the label and group properties of the data according to the change in the preprocessed correlation through the process model processing unit,
To reduce information loss in adjusting data rates between label and group attributes of the data, set up a function that aims to minimize the squared difference between the original data rate and the adjusted data rate.
Model training method.
제3항에 있어서,
상기 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계는,
상기 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하기 위한 함수에 대하여 비볼록 QCQP(quadratically constrained quadratic problem)의 최적 값의 하한을 제공하는 볼록 이완 SDP(Semidefinite Programming) 완화를 적용하는
모델 훈련 방법.
According to paragraph 3,
The step of adjusting the data ratio between the label and group properties of the data according to the change in the preprocessed correlation through the process model processing unit,
Applying a convex relaxation Semidefinite Programming (SDP) relaxation that provides a lower bound on the optimal value of a non-convex quadratically constrained quadratic problem (QCQP) for a function to minimize the squared difference between the original data rate and the adjusted data rate.
Model training method.
제4항에 있어서,
상기 공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계는,
상기 SDP 완화를 통해 조정된 새로운 데이터 비율을 반영함으로써, 상기 전처리를 통한 상관 관계 조정과 데이터 비율에 대한 공정성 완화를 분리하는
모델 훈련 방법.
According to paragraph 4,
The step of adjusting the data ratio between the label and group properties of the data according to the change in the preprocessed correlation through the process model processing unit,
By reflecting the new data rate adjusted through the SDP relaxation, the correlation adjustment through the preprocessing and fairness relaxation for the data rate are separated.
Model training method.
모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 전처리부;
상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 공정 모델 처리부; 및
훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력하는 후처리부
를 포함하는 모델 훈련 시스템.
a preprocessor that extracts samples of a class related to a correlation indicating a change in bias between the label of data for model training and group attributes and performs preprocessing to reduce the change in the correlation;
a process model processing unit that adjusts the data ratio between the label and group attributes of the data according to the change in the preprocessed correlation; and
A post-processing unit that inputs data adjusted according to the adjusted data ratio into a process algorithm for model training so that the output of the trained model meets predetermined fairness.
A model training system including.
제6항에 있어서,
상기 전처리부는,
훈련 데이터에 대한 성능이 배치 데이터로 전달되도록 배치 데이터에서 주어진 그룹 속성의 조건부 확률 차이의 상관 상수 및 상기 상관 상수의 범위를 분포 추정 기법을 사용하여 구하고,
상기 상관 상수의 범위 및 상기 추출된 샘플에 대한 클래스의 가중치를 사용하여 상기 조건부 확률 차이에 비례하는 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는
모델 훈련 시스템.
According to clause 6,
The preprocessor,
Obtain the correlation constant of the conditional probability difference of a given group attribute in the batch data and the range of the correlation constant using a distribution estimation technique so that the performance on the training data is transferred to the batch data,
Performing preprocessing to reduce the correlation change proportional to the conditional probability difference using the range of the correlation constant and the weight of the class for the extracted sample.
Model training system.
제6항에 있어서,
상기 공정 모델 처리부는,
상기 데이터의 레이블과 그룹 속성 간의 데이터 비율 조정 과정에서 정보 손실을 줄이기 위해 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하는 것을 목표로 하는 함수를 설정하는
모델 훈련 시스템.
According to clause 6,
The process model processing unit,
Setting a function that aims to minimize the squared difference between the original data rate and the adjusted data rate to reduce information loss in the process of adjusting the data rate between the label and group properties of the data.
Model training system.
제8항에 있어서,
상기 공정 모델 처리부는,
상기 원래 데이터 비율과 조정된 데이터 비율 간의 제곱 차이를 최소화하기 위한 함수에 대하여 비볼록 QCQP(quadratically constrained quadratic problem)의 최적 값의 하한을 제공하는 볼록 이완 SDP(Semidefinite Programming) 완화를 적용하고,
상기 SDP 완화를 통해 조정된 새로운 데이터 비율을 반영함으로써, 상기 전처리를 통한 상관 관계 조정과 데이터 비율에 대한 공정성 완화를 분리하는
모델 훈련 시스템.
According to clause 8,
The process model processing unit,
Applying a convex relaxation Semidefinite Programming (SDP) relaxation that provides a lower bound on the optimal value of a non-convex quadratically constrained quadratic problem (QCQP) for the function for minimizing the squared difference between the original and adjusted data rates,
By reflecting the new data rate adjusted through the SDP relaxation, the correlation adjustment through the preprocessing and fairness relaxation for the data rate are separated.
Model training system.
상관 관계 변화에 따른 공정한 모델 훈련 방법을 실행시키기 위해 컴퓨터 판독 가능한 저장 매체에 저장된 프로그램에 있어서,
전처리부를 통해 모델 훈련을 위한 데이터의 레이블과 그룹 속성 간의 편향의 변화를 나타내는 상관 관계에 관한 클래스의 샘플을 추출하여 상기 상관 관계 변화를 감소시키기 위한 전처리를 수행하는 단계;
공정 모델 처리부를 통해 상기 전처리된 상관 관계 변화에 따라 상기 데이터의 레이블과 그룹 속성 간의 데이터 비율을 조정하는 단계; 및
후처리부를 통해 훈련된 모델의 출력이 미리 정해진 공정성을 충족하도록 상기 조정된 데이터 비율에 따라 조정된 데이터를 모델 훈련을 위한 공정 알고리즘에 입력하는 단계
를 포함하는 컴퓨터 판독 가능한 저장 매체에 저장된 프로그램.
In a program stored in a computer-readable storage medium to execute a fair model training method according to correlation changes,
Extracting samples of a class related to a correlation indicating a change in bias between the label and group attributes of data for model training through a preprocessor and performing preprocessing to reduce the change in the correlation;
adjusting the data ratio between the label and group attributes of the data according to the change in the preprocessed correlation through a process model processor; and
Inputting data adjusted according to the adjusted data ratio into a process algorithm for model training so that the output of the model trained through the post-processing unit satisfies predetermined fairness.
A program stored on a computer-readable storage medium containing a.
KR1020230052881A 2022-10-06 2023-04-21 Method and System for Fair Model Training under Correlation Shifts in Machine Learning KR102585613B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220127470 2022-10-06
KR1020220127470 2022-10-06

Publications (1)

Publication Number Publication Date
KR102585613B1 true KR102585613B1 (en) 2023-10-10

Family

ID=88291864

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230052881A KR102585613B1 (en) 2022-10-06 2023-04-21 Method and System for Fair Model Training under Correlation Shifts in Machine Learning

Country Status (1)

Country Link
KR (1) KR102585613B1 (en)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
[1] Aditya Krishna Menon and Robert C Williamson. The cost of fairness in binary classification. In FAT*, pp. 107-118, 2018.
Jae-Gil Lee et al. "Machine Learning Robustness, Fairness, and their Convergence" Tutorial Overview KDD ’21, August 14-18, 2021, Virtual Event, Singapore 4046. *
N Mehrabi et al. "A survey on bias and fairness in machine learning" ACM Computing Surveys, Vol. 54, No. 6, Article 115. Publication date: July 2021. *
Yuji Roh et al. "FairBatch: Batch Selection for Model Fairness" https://openreview.net/forum?id=YNnpaAKeCfx. Published: 13 Jan 2021. *
Yuji Roh et al. "Sample Selection for Fair and Robust Training" https://openreview.net/forum?id=2Dg2UQyRpQ. Published: 10 Nov 2021. *

Similar Documents

Publication Publication Date Title
US11604956B2 (en) Sequence-to-sequence prediction using a neural network model
EP3955204A1 (en) Data processing method and apparatus, electronic device and storage medium
Angelikopoulos et al. X-TMCMC: Adaptive kriging for Bayesian inverse modeling
US7783583B2 (en) Evolutionary search for robust solutions
US20200320428A1 (en) Fairness improvement through reinforcement learning
US20110131551A1 (en) Graphical user interface input element identification
US9111388B2 (en) Information processing apparatus, control method, and recording medium
Andrews et al. teigen: An R package for model-based clustering and classification via the multivariate t distribution
JP7276436B2 (en) LEARNING DEVICE, LEARNING METHOD, COMPUTER PROGRAM AND RECORDING MEDIUM
KR102585613B1 (en) Method and System for Fair Model Training under Correlation Shifts in Machine Learning
US11593673B2 (en) Systems and methods for identifying influential training data points
KR20220095949A (en) Method of multivariate missing value imputation in electronic medical records
US20230334341A1 (en) Method for augmenting data and system thereof
US8423334B2 (en) Distributed model identification
Kumar et al. Efficient statistical model checking of hardware circuits with multiple failure regions
KR20190109194A (en) Apparatus and method for learning neural network capable of modeling uncerrainty
US20170192485A1 (en) Providing a power optimized design for a device
EP4222642A1 (en) Systems and methods for enforcing constraints in character recognition
JP2022041800A (en) System and method for multilingual sentence embedding
US7720771B1 (en) Method of dividing past computing instances into predictable and unpredictable sets and method of predicting computing value
CN109684187B (en) Method and apparatus for generating test sensor data
CN112602059A (en) Generating vector predicate digests
JP7439923B2 (en) Learning methods, learning devices and programs
US11615260B2 (en) Systems and methods for enforcing constraints in character recognition
WO2023132061A1 (en) Training method, information processing device, and training program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant