敵対的再帰反射パッチ: 暗闇で有効化する敵対的攻撃

書誌事項

タイトル別名
  • Adversarial Retroreflective Patch: Attack Activated in the Dark

抄録

自動運転車両は,カメラの画像データに対して深層学習を適用することにより,物体検出や交通標識認識を行っている.一般に深層学習は,悪意を持ったノイズ(敵対的サンプル)に対して脆弱であることが知られている.これまでに敵対的サンプル攻撃に関して多くの研究が行われてきたが,これらの研究は主に昼間の状況を仮定しており,夜間の状況を対象とした評価はなかった.本研究では,夜の環境に特化した新たな攻撃手法Adversarial Retroreflective Patch Attack (ARPA) を提案する.この攻撃は,再帰反射板を利用して自動車のヘッドライトがターゲットに照射した光を特定のパターンで反射させることで,物体検出システムの検知を回避することを狙いとしている.たとえば停止の標識に対して予め計算したレイアウトにしたがった再帰反射板を配置することで,ヘッドライトによって照らし出された標識に対する物体識別を誤らせることができる.鍵となるアイディアは,透明な再帰反射板を用いることにより,日中はほとんど見えないが,夜間にヘッドライトが照射されたときのみ,敵対的なパターンが表示させることである.本研究では,シミュレーションおよび実世界の実験を通じて ARPA 攻撃の有効性を検証する.また,この攻撃に対する有効な防御手法について議論する.

Autonomous vehicles leverage deep learning for tasks such as object detection from camera images. However, while there's significant research on their vulnerabilities in daytime conditions, nighttime challenges have been largely overlooked. Night driving introduces unique environmental variables and low visibility scenarios that can be exploited. In our study, we introduce the Adversarial Retroreflective Patch Attack (ARPA). This method utilizes transparent retroreflectors that are unnoticeable during the day but can create adversarial patterns when illuminated by headlights at night. For instance, by strategically placing these retroreflectors on stop signs, we can deceive the vehicle's object detection system. Our simulations and real-world experiments demonstrate the effectiveness of the ARPA, and we also delve into potential defenses against such attacks.

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ