SwePub
Sök i LIBRIS databas

  Utökad sökning

WFRF:(Markidis S.)
 

Sökning: WFRF:(Markidis S.) > (2018) > NVIDIA tensor core ...

NVIDIA tensor core programmability, performance & precision

Markidis, Stefano (författare)
KTH,Beräkningsvetenskap och beräkningsteknik (CST)
Chien, Steven Wei Der (författare)
KTH,Beräkningsvetenskap och beräkningsteknik (CST)
Laure, Erwin (författare)
KTH,Beräkningsvetenskap och beräkningsteknik (CST)
visa fler...
Peng, I. B. (författare)
Vetter, J. S. (författare)
visa färre...
 (creator_code:org_t)
Institute of Electrical and Electronics Engineers (IEEE), 2018
2018
Engelska.
Ingår i: Proceedings - 2018 IEEE 32nd International Parallel and Distributed Processing Symposium Workshops, IPDPSW 2018. - : Institute of Electrical and Electronics Engineers (IEEE). - 9781538655559 ; , s. 522-531
  • Konferensbidrag (refereegranskat)
Abstract Ämnesord
Stäng  
  • The NVIDIA Volta GPU microarchitecture introduces a specialized unit, called Tensor Core that performs one matrix-multiply-and-accumulate on 4x4 matrices per clock cycle. The NVIDIA Tesla V100 accelerator, featuring the Volta microarchitecture, provides 640 Tensor Cores with a theoretical peak performance of 125 Tflops/s in mixed precision. In this paper, we investigate current approaches to program NVIDIA Tensor Cores, their performances and the precision loss due to computation in mixed precision. Currently, NVIDIA provides three different ways of programming matrix-multiply-and-accumulate on Tensor Cores: the CUDA Warp Matrix Multiply Accumulate (WMMA) API, CUTLASS, a templated library based on WMMA, and cuBLAS GEMM. After experimenting with different approaches, we found that NVIDIA Tensor Cores can deliver up to 83 Tflops/s in mixed precision on a Tesla V100 GPU, seven and three times the performance in single and half precision respectively. A WMMA implementation of batched GEMM reaches a performance of 4 Tflops/s. While precision loss due to matrix multiplication with half precision input might be critical in many HPC applications, it can be considerably reduced at the cost of increased computation. Our results indicate that HPC applications using matrix multiplications can strongly benefit from using of NVIDIA Tensor Cores.

Ämnesord

TEKNIK OCH TEKNOLOGIER  -- Elektroteknik och elektronik -- Datorsystem (hsv//swe)
ENGINEERING AND TECHNOLOGY  -- Electrical Engineering, Electronic Engineering, Information Engineering -- Computer Systems (hsv//eng)

Nyckelord

GEMM
GPU Programming
Mixed Precision
NVIDIA Tensor Cores

Publikations- och innehållstyp

ref (ämneskategori)
kon (ämneskategori)

Hitta via bibliotek

Till lärosätets databas

Sök utanför SwePub

Kungliga biblioteket hanterar dina personuppgifter i enlighet med EU:s dataskyddsförordning (2018), GDPR. Läs mer om hur det funkar här.
Så här hanterar KB dina uppgifter vid användning av denna tjänst.

 
pil uppåt Stäng

Kopiera och spara länken för att återkomma till aktuell vy