畳み込みニューラルネットワークの行列計算におけるTensorコアを用いた並列処理
この論文をさがす
説明
物体検出のディープラーニングに用いられる畳み込みニューラルネットワーク(CNN)では多くの行列計算が行われており,学習時間を短縮するためには行列計算の高速化が不可欠である.行列計算の高速化には,GPUの活用が広く行われているが,さらなる速度向上を実現するためには,単精度浮動小数点数FP32の代わりに,半精度浮動小数点数FP16を利用して,GPUの演算性能を高めることが挙げられる.加えて,Tensorコアを活用することにより,行列計算の高速化が可能になる.そこで本手法では,FP16およびTensorコアを利用するCUDAプログラムを開発しており,CNNの行列計算部分に適用した. NVIDIA Quadro RTX 6000上で行った性能評価の結果,提案手法の有効性が確認された.
収録刊行物
-
- 第83回全国大会講演論文集
-
第83回全国大会講演論文集 2021 (1), 25-26, 2021-03-04
情報処理学会
- Tweet
キーワード
詳細情報 詳細情報について
-
- CRID
- 1050292572144752128
-
- NII論文ID
- 170000187430
-
- NII書誌ID
- AN00349328
-
- 本文言語コード
- ja
-
- 資料種別
- conference paper
-
- データソース種別
-
- IRDB
- CiNii Articles