畳み込みニューラルネットワークの行列計算におけるTensorコアを用いた並列処理

この論文をさがす

説明

物体検出のディープラーニングに用いられる畳み込みニューラルネットワーク(CNN)では多くの行列計算が行われており,学習時間を短縮するためには行列計算の高速化が不可欠である.行列計算の高速化には,GPUの活用が広く行われているが,さらなる速度向上を実現するためには,単精度浮動小数点数FP32の代わりに,半精度浮動小数点数FP16を利用して,GPUの演算性能を高めることが挙げられる.加えて,Tensorコアを活用することにより,行列計算の高速化が可能になる.そこで本手法では,FP16およびTensorコアを利用するCUDAプログラムを開発しており,CNNの行列計算部分に適用した. NVIDIA Quadro RTX 6000上で行った性能評価の結果,提案手法の有効性が確認された.

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ