GPU コンピューティング研究会

TESLA C2050

第20回 GPUコンピューティング 講習会

申し込みを締め切りました。

 

主催: GPUコンピューティング研究会
日時: 2016年6月27日(月)13:20~17:10
場所: 東京工業大学・大岡山キャンパス 情報ネットワーク演習室 第2演習室(大岡山キャンパス南4号館3階 キャンパスマップにあります37番の建物で1階にセブンイレブンがあります)
定員: 92名
開催趣旨:

東京工業大学・学術国際情報センターのスパコン TSUBAME には4,000個以上のGPUが搭載され、Top500 スパコンの上位にランクされるスパコンの多くは GPU をアクセラレータとして利用しています。GPU の高い計算性能を引き出すためには、GPUコンピューティングを行うための CUDA でプログラミングする必要があります。本講習会では、CUDA プログラミングの基礎を習得するために、数多くの例題を通してTSUBAME の GPU を使ったハンズオン実習を行います。

GPUコンピューティング研究会・会員の方に優先的に参加して頂きます。会員でない方は、先に会員登録をして頂けますようお願い致します。
申し込み: こちらからお申し込みください。
参加費: 無料
   
プログラム:
 
 
13:00

受付開始

13:20-13:30

最新のGPUの動向

下川辺隆史(東京工業大学・学術国際情報センター)

13:30-14:00

TSUBAME2.5 へのLogin

演習室の端末から本講習で使用する TSUBAME2.5 へのログイン方法を説明します。

下川辺隆史(東京工業大学・学術国際情報センター)

14:00-15:30

CUDA基礎1

CUDA の概要を説明し、デバイス・ホスト間のデータ転送などを行うAPIや、GPU カーネル関数のプログラミングとそれを多数のスレッドとブロックで実行する方法など、基礎的な部分を説明します。

黄遠雄(東京工業大学・学術国際情報センター)

15:30-15:40 休憩
15:40-17:10

CUDA基礎2

並列計算で排他的制御を行うAtomic演算、およびC++ 標準テンプレートライブラリ(STL)の機能を類似したThrustライブラリを紹介します。総和計算を例題に取り上げ、GPU性能を引き出すためのチューニングについて説明します。複数streamを用いた性能向上の手法や、 GPUのメモリ管理を簡単にするUnified Memoryを紹介します。例題として、Unified Memoryを用いることでGPU 上で二次元動的配列の確保や計算が簡単に出来る事を紹介します。

黄遠雄(東京工業大学・学術国際情報センター)