理化学研究所 計算科学研究センター

メニュー
メニュー
Events/Documents イベント・広報

セミナー「エクサスケールHPCとビッグデータのエコシステムの相違について ー 合流への道はあるか?ー」 (1月13日)開催報告

Seminar by Prof. Guang R. Gao

2016年1月13日計算科学研究機構にて、並列処理および並列アーキテクチャ研究で著名な研究者で、米・デラウェア大学の Endowed Distinguished Professor のGuang R. Gao 先生のセミナー「On The Divergence of Eco-Systems of Extreme-Scale HPC and Big Data: *Is There a Path for Their Convergence* ?」を開催しました。

CodeletやSWARMといったGao教授のデータフローの研究やそれに基づく今後の高性能計算とビッグデータへの展望はもちろん、中国大陸から米国への留学生が非常に少ない時代に米・マサチューセッツ工科大学 (MIT) に留学した経験を交えた研究人生の話などがユーモラスに展開されました。

CodeletとSWARM

Gao教授は、MITでデータフローの研究を行っており、Codeletはこのデータフローの研究をベースとしています。

現在の基本的な計算機は、ノイマン型と呼ばれる計算機アーキテクチャに基づいています。ノイマン型アーキテクチャは、演算ユニットとレジスタを持つCPUと、データと命令を保持するメモリなどの記憶装置といった要素で構成されます。このアーキテクチャでは、プロセッサがデータと命令をバスを介して読み込むと考えます。

それに対して、データフロー・Codeletモデルでは、ノードと呼ばれるたくさんのプロセッサがそれぞれ命令を持ちます。ノードどうしは、エッジと呼ばれる入出力機構でつながれており、各プロセッサ・ノードは入力エッジを介してデータが自分のところに到着したら、自分の命令を与えられたデータに対して実行します。各プロセッサが、入出力以外は、他の影響を受けず独立に計算できることから、高い並列性を持つとして大規模計算において注目を集めているモデルです。

SWARM (SWift Adaptive Runtime Machine) は、Abstract Codelet Machine の商用版です。大学や研究機関であれば、特別なライセンスと合意のもとに利用することができます。

Seminar by Prof. Guang R. Gao