人種間の公平性を考慮した顔認証距離学習

書誌事項

タイトル別名
  • Metric Learning for Facial Recognition Considering Racial Fairness

抄録

学習データの人種割合が偏った顔画像データセットで学習された顔認証モデルは,人種によって認証精度が異なってしまい,公平性の観点から問題になることがある.一方,顔認証モデルを学習する際に広く使用される大規模な顔画像データセットは,インターネット上で自動的に収集しており,人種割合が偏っていることが指摘されている.顔画像データセットの人種割合を統一しながら大規模な顔画像データセットを構築することは難しく,アンダーサンプリングによって人種割合を統一した場合は,学習データ数の減少により認証精度の低下につながる.そこで,本稿では顔画像データセットの人種割合が偏ったまま,顔認証モデルにおける公平性のバランスを調整可能な新たなモデル学習法を提案する.提案手法は,損失関数のパラメータを学習段階や公平性を考慮しながら動的に変化させることで,学習を安定させながら公平性を向上させる.さらに,高精度な人種の精度低下の許容度を決定する調和パラメータによって,公平性と認証精度の重要度の比重に応じて最適なバランスで学習を行うことができる.

Face recognition models trained on facial image datasets with a skewed racial distribution often display differing authentication accuracies depending on race, which can pose problems from a fairness standpoint. On the other hand, large-scale facial image datasets widely used for training face recognition modelsare automatically collected from the internet, and a racial imbalance in these datasets has been pointed out. Constructing a large-scale facial image dataset with a uniform racial distribution is challenging, and if the racial distribution is uniformed by undersampling, a reduction in the number of training data leadsto a decrease in authentication accuracy. Therefore, this paper proposes a new model learning method that can adjust the balance of fairness in face recognition models, even with a skewed racial distribution in the facial image dataset. The proposed method dynamically changes the parameters of the loss function duringthe learning stage and in consideration of fairness, thereby stabilizing the learning process while improving fairness. Furthermore, by using a harmony parameter that determines the allowable degree of accuracy degradation for highly accurate races, it is possible to perform learning at an optimal balance according tothe relative importance of fairness and authentication accuracy.

収録刊行物

キーワード

詳細情報 詳細情報について

問題の指摘

ページトップへ