GeSdA―GPU上でのAutoencoder処理並列化による高速Deep Learningの実装

Bibliographic Information

Other Title
  • GeSdA―High Performane Deep Learning Implementation with Autoencoder Parallelization

Search this article

Abstract

「Deep learning」は,その強力な表現学習能力により画像処理・人工知能研究などを中心に幅広い分野で多大な注目を集めている.特に画像処理の分野を中心に,畳込みニューラルネットワーク(CNN)を基盤としたモデルについては多くの研究が精力的に進められ,高速化などの最適化においても顕著な成果が出ている.しかし,CNNと比較するとSdAなどの他のモデルに対するパフォーマンスの最適化についてはいまだ大きな課題として残っていた.本論文ではGPUを利用したSdAの高速化手法とその実装「GeSdA」を提案する.また,GeSdAの有効性を示すために開発したジェスチャー認識アプリケーション「Deep Motion」の概要と実験結果を示す.

The Stacked denoising Auto-encoder (SdA) is one of the most popular pretraining based deep learning algorithms and its capability as a representation learner is widely known among researchers. However, in contrast to Convolutional Neural Networks (CNNs), little attention has been paid to performance enhancement of SdA. We introduce GeSdA, a high performance SdA algorithm with an efficient GPU-based pretraining approach which we refer to as cross-layer parallel pretraining (CrossPre). Experimental results show that the proposed approach is helpful in improving computational performance and classification accuracy. To prove the practical value of GeSdA, we introduce DeepMotion as an application example.

Journal

Related Projects

See more

Details 詳細情報について

Report a problem

Back to top