Performance Tuning for the SYMV kernel on multiple GPU generations, Fermi and Kepler

Bibliographic Information

Other Title
  • Fermi,Kepler複数世代GPUに対するSYMVカーネルの性能チューニング

Search this article

Description

異なる 2 世代の GPU コアにおいて基本線形計算の一つである SYMV カーネルの自動チューニングについて報告する.SYMV カーネルは対称性を利用したループ変換と Atomic 操作によって排他制御を行うことで Fermi コア上で従来の CUDA-BLAS ライブラリの実装よりも高速化される.この実装には 4 つのパラメータがあり行列の次元を数えるとその探索空間の大きさは膨大なものとなる.本研究ではチャンピオン方式によるパラメータ篩い落としとともに d-spline を用いたデータ内挿と推定を実施して最良のパラメータを選択する.実機 Tesla C2050,GeForce GTX580,Tesla K20 においてこれらを実施してほぼ最良の SYMV カーネルの構築がなされた.We report automatic performance tuning for the SYMV kernel, which is one of the basic linea algebra operations, on different two generation GPU cores. SYMV kernel is optimized by exclusive control using an atomic operation and loop tansformation taking into account the symmetry of matrix. It outperforms the existing CUDA-BLAS libraries on the Fermi core GPU. There are four parameters to be tuned up, and the size of parameter space becomes enourmous when we count up the dimension of the matrix to be calculated. In this study, the parameters of the best performing is seleceted via parameter sieving by the champion ranking scheme and estimation and interpolation data using d-spline function. Building the best SYMV kernel has been made in applying these on a Tesla K20, a Tesla C2050, and a GeForce GTX580.

Journal

Details 詳細情報について

  • CRID
    1571135652911163008
  • NII Article ID
    110009536432
  • NII Book ID
    AN10463942
  • Text Lang
    ja
  • Data Source
    • CiNii Articles

Report a problem

Back to top