敵対的サンプルに対する顔認証のロバスト化手法

書誌事項

タイトル別名
  • Improving Adversarial Robustness on Face Recognition Systems

説明

深層学習ベースの顔認証器を敵対的サンプルに対してロバストにする手法を提案する.<br>敵対的サンプルは,機械学習モデルが誤識別を引き起こすように作為的に作られた入力である.<br>顔認証は多くの場合,特徴量抽出器が用いられているが,同様に敵対的サンプルに対して脆弱であるため対策が必要である.<br>しかし,これまでに提案されてきた防御技術の中に特徴量抽出器向けの手法はほとんど検討されていない.<br>敵対的サンプルに対する分類器の防御手法の一つに,多様的なモデルのアンサンブルを用いる手法がある.<br>我々はその手法を直接的に特徴量抽出器に適用したところ,モデルのロバスト性を高める効果がないことが分かった.<br>そこで,我々は各クラスの特徴量を代表するベクトルを導入し,これをモデル間で共有する手法を提案する.<br>共通的な特徴量の代表ベクトルを用いることで敵対的サンプルに対するモデルのロバスト性を高めることができることを実験的に確認した.

We consider how to make deep learning-based face recognition robust against adversarial examples.<br>An adversarial example is a maliciously crafted input that machine learning models misclassify it while humans do not.<br>A large number of studies have proposed methods for protecting classifiers from adversarial examples.<br>One of the most successful methods among them is to prepare an ensemble of models and promote diversity among them.<br>We directly applied this successful method to feature extractors and found that it does not work at all, unlike to classifiers.<br>Then, we proposed a method that synchronizes the direction of features among models and promotes the diversity of features compared to the synchronized directions.<br>We experimented that our method of promoting diversity under the synchronization for feature extractors prevents adversarial examples significantly.

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ