合成データに対するメンバーシップ推論攻撃評価フレームワークの拡張

抄録

合成データ生成技術の安全性を攻撃可能性の観点から考察するため,特定個人の元データへの所属の有無を推論するメンバーシップ推論攻撃の耐性を評価する方法が注目されている.Stadler らによって Usenix Security 2022 にて提案された安全性評価のゲームは,(1) サンプルの選び方が最悪ケースの評価をしていない,(2) 攻撃者が推論を行う判断を機械学習モデルに行わせており,判断基準がブラックボックス化してしまうという 2 つの課題があった.(1) の課題は著者らが CSS2022 にて,フレームワークを拡張する形で解決したが,(2) に関する検討はまだない.本研究では,Stadler らの機械学習モデルベースの手法と比較ができるように既存の推論方式の改良を提案し,2 種類のデータセット,6 種類の合成手法を用いて比較実験を行った.結果として,既存の機械学習モデルベースの推論方式より,提案した統計量ベースやサンプル距離ベースの推論方式がより AUC 基準で 0.07-0.10 ほど高い推論精度を出すことを確かめた.加えて,課題 (1) についても著者らのサンプルの選択の仕方が AUC 基準で 0.05-0.20 ほど有効であることをより多くのデータセット,合成手法に対して確かめた.

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ