Search

'Machine Learning'에 해당되는 글 1건

  1. 2022.08.26 Fairness and Bias In AI

Fairness and Bias In AI

카테고리 없음 2022. 8. 26. 17:53 Posted by syyoon

안녕하세요. 서울대학교 석박통합연구생 유상윤 입니다. 8월 25일 세미나 관련 내용 요약입니다.

 

Fairness는 모호한 개념이지만 Fairness를 achieve하는 방법은 크게 두가지로 나눌 수 있다.

1. Fairness through Blindness.

2. Fairness through Awareness.

 

Fairness through Blindness가 필요한 상황은 단순히 Subpopulation Shift로 인해서 Bias가 발생한 경우로, Sensitive Attribute을 의도적으로 무시하는 것이 Fairness에 도움이 되는 경우이다. Subpopulation Shift 문제란 group별로 sample의 갯수가 다르다거나, entropy가 달라 단순히 전체 loss를 minimization하는 것이 특정 group에 불리하게 작용하는 경우를 나타낸다. 이때 만약에 Bias를 지우는 방향과 model의 성능에 도움이 되는 feature들이 orthogonal하다면 bias를 지우면서 성능 저하 또한 방지할 수 있다. Dataset의 예시로는 색깔과 digit이 통계적으로 연관되어있는 Colored MNIST 같은 것을 볼 수 있다. 이를 위한 방법론의 예시로는 Adversarial Learning이나 Disentangle 과 같이 bias에 관여되는 feature들을 학습하는 것을 최대한 방지하는 방식으로 fairness를 추구한다.

 

Fairness through Awareness가 필요한 상황은 이보다 더 본질적인 문제로, target과 sensitive attribute이 논리적으로 correlate되어 있는 경우이다. 예를 들어 국가에 따라서 우수한 학생들이 지원하는 학과가 다른 상황을 가정해보자. 이때 국가라는 sensitive attribute을 blind하게 무시해버린다면 우수한 학생들이 어디에 지원할지 예측할 수 없을 것이다. 이 경우에는 오히려 국가라는 sensitive attribute을 prediction에 고려를 해야한다. 이를 위한 방법론의 예시로는 Domain Discriminative/Independent Training을 들 수 있다.

 

하지만 많은 경우 두가지 문제가 어느정도 모두 존재해 Unfair한 상황이 만들어 질 수 있다. 이를 가장 보편적, 그리고 해치지 않고 해결하는 방법은 Adaptive Sampling을 하는 것이다. 모든 feature에 aware하게 하면서 특정 group에 불리하게 risk가 minimize되는 것을 방지할 수 있다. 하지만 Modern NN model들의 경우 대부분 high capacity model로 train dataset에 거의 완벽하게 fit하게 된다. 이때 minority group에서의 risk를 다 minimize하였다고 하더라도 generalize 측면에서 더 불리하게 작용한 것이므로 여전히 unfair한 모델이 생성되게 된다. 이를 위해서 G-SMOTE라는 방법이 제시되었는데, 이는 GAN을 통해서 minority group에서도 충분히 general한 decision boundary를 학습할 수 있도록 해준다. 또한 이 논문에서는 GAN 뿐만 아니라 모든 종류의 augmentation이 도움이 된다고 주장하고 있고, 이는 최대한 decision boundary를 모든 group에 대해서 generalize하는 것이 중요함을 나타낸다.

 

감사합니다.

 

Source

Fairness through Awareness - ITCS’ 12

Towards Fairness in Visual Recognition: Effective Strategies for Bias Mitigation - CVPR’ 20

Learning Debiased Representation via Disentangled Feature Augmentation - NeurIPS’ 21

Does enforcing fairness mitigate biases caused by subpopulation shift? - NeurIPS’ 21

Leveling Down in Computer Vision: Pareto Inefficiencies in Fair Deep Classifiers - CVPR’ 22