GeSdA―GPU上でのAutoencoder処理並列化による高速Deep Learningの実装

書誌事項

タイトル別名
  • GeSdA―High Performane Deep Learning Implementation with Autoencoder Parallelization

この論文をさがす

抄録

「Deep learning」は,その強力な表現学習能力により画像処理・人工知能研究などを中心に幅広い分野で多大な注目を集めている.特に画像処理の分野を中心に,畳込みニューラルネットワーク(CNN)を基盤としたモデルについては多くの研究が精力的に進められ,高速化などの最適化においても顕著な成果が出ている.しかし,CNNと比較するとSdAなどの他のモデルに対するパフォーマンスの最適化についてはいまだ大きな課題として残っていた.本論文ではGPUを利用したSdAの高速化手法とその実装「GeSdA」を提案する.また,GeSdAの有効性を示すために開発したジェスチャー認識アプリケーション「Deep Motion」の概要と実験結果を示す.

The Stacked denoising Auto-encoder (SdA) is one of the most popular pretraining based deep learning algorithms and its capability as a representation learner is widely known among researchers. However, in contrast to Convolutional Neural Networks (CNNs), little attention has been paid to performance enhancement of SdA. We introduce GeSdA, a high performance SdA algorithm with an efficient GPU-based pretraining approach which we refer to as cross-layer parallel pretraining (CrossPre). Experimental results show that the proposed approach is helpful in improving computational performance and classification accuracy. To prove the practical value of GeSdA, we introduce DeepMotion as an application example.

収録刊行物

関連プロジェクト

もっと見る

詳細情報 詳細情報について

  • CRID
    1050845762837252352
  • NII論文ID
    170000148037
  • NII書誌ID
    AA11464847
  • ISSN
    18827799
  • Web Site
    http://id.nii.ac.jp/1001/00165259/
  • 本文言語コード
    ja
  • 資料種別
    article
  • データソース種別
    • IRDB
    • CiNii Articles
    • KAKEN

問題の指摘

ページトップへ