垂直連合学習におけるラベル推論攻撃の検討

書誌事項

タイトル別名
  • A Study of Label Inference Attack on Vertical Federated Learning

抄録

機械学習(ML)技術の社会実装が急速に進んでおり,ユーザの機密やプライバシに関わる情報も学習の対象となっている.このようなケースでは組織間の学習データ共有が困難であり,MLモデルを学習させるためのデータセットを構築できない.このような制約下でMLモデルを訓練するための手法として連合学習がある.これは複数の組織が自身の持つデータを外部に公開することなく,共同でMLモデルを訓練するための手法である.垂直連合学習(VFL)はその一つであり,連携する組織(クライアント)が同じサンプルに対するデータを保持しているが,所持している特徴が異なる場合を扱うものである.VFLは秘密情報であるデータやラベルをクライアント外に公開することなく学習を実施できる.しかしながら近年の研究では,悪意あるクライアントが本来は秘密情報であるラベルを推定する,ラベル推論攻撃の脅威が明らかになっている.本稿では深層学習技術を用いたVFLにおいて,クライアントが外部と送受信するデータからラベル推論攻撃を行う.実験では,クライアントが送受信する中間特徴ベクトルや勾配ベクトルを解析することでラベル情報を推定できることを示す.

Machine learning (ML) techniques are widely used in various fields. MLs also handle information relating to users' secrets and privacy, but it may be difficult to collect training data to train ML models because data sharing is restricted in that case. Federated learning (FL) is a method to train ML models in cooperation under that restriction. It enables training ML models without sharing data and labels with the outside. Vertical federated learning (VFL) is a method in the FL, it assumes situations in which cooperating clients share sample space but differ in the feature space. Clients and server communicate only internal value and their gradient in the training phase, and then it is known that VFL does not leak private data directly. However, the privacy risks of VFL, like label inference attacks, have recently been explored. In this paper, we perform the label inference attack by exploiting internal values or their gradients on the communication channel.

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ