AIモデルの説明可能性Shapley値からの属性推定リスクの評価とその対策

書誌事項

タイトル別名
  • Mitigation and Evaluation the Risk of Feature Inference Attack from AI Model Explainability, Shapley Values

抄録

械学習モデルの公平性や学習の透明性を保証し,ユーザに納得感を与えるために機械学習モデルの出力を説明する説明可能性技術が注目されている.機械学習モデルを用いたサービスの多くはMachine Learning as a Service(MLaaS)と呼ばれるプラットフォーム上で提供されており,これらのMLaaS プラットフォームでは,モデルの出力に加えて,モデル説明するいくつかの指標を提供している.特にShapley値はAmazon Web Services やGoogle Cloud Platform,Microsoft Azure などの主要なMLaaS プラットフォームで提供されている主流の手法である.しかし,2022 年にLuo らがShapley 値による説明からモデルへのプライベートな入力を推論出来ることを示した.これにより,Shapley 値を用いた説明可能性指標にはモデルからプライバシー情報が漏洩するリスクがあることが分かった.ただし,Shapley 値からの属性推定リスクがデータや推定アルゴリズムにどれくらい依存するかは明らかでない.そこで,本研究では,各属性間の相関の強さや攻撃者が採用するアルゴリズムに応じた属性推定リスクの変化を明らかにし,このリスクに対する対策について検討する.

Explainability has gained attention to ensure fairness and transparency in machine learning models, providing users with a sense of understanding. Most services for machine learning models are offered in a style of Machine Learning as a Service (MLaaS) platforms, which provide several methods to explain model outputs. Particularly, the explanation on the Shapley values is widely available on major MLaaS platforms such as Amazon Web Services, Google Cloud Platform, and Microsoft Azure. Luo et al. (2022) demonstrated that Shapley value-based explanations provided from MLaaS could lead to inference of private inputs to the model, posing privacy risks of private information leakage from models. Nevertheless, it remains unclear how the attribute inference risk from Shapley values depends on the data and the estimation algorithms. Hence, this study investigates how the attribute inference risk varies with the strength of correlations between attributes and the algorithms adopted by attackers varies and consider possible mitigation to this threat.

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ