トップページ
研究活動
研究チーム紹介
過去の研究チーム紹介
高性能人工知能システム研究チーム(松岡)
高性能人工知能システム研究チーム(松岡)
English
チームリーダー 松岡 聡(まつおか さとし)
- 1993
- 東京大学理学系研究科情報科学専攻、博士(理学)
- 2000
- 東京工業大学・学術国際情報センター教授
- 2017
- 産総研・東工大RWBC-OILラボ長
- 2018
- R-CCSセンター長(現職)
- 東京工業大学・情報理工学院特任教授(兼職)
- 2019
- R-CCS高性能人工知能システム研究チームチームリーダー(現職)
キーワード
- 高性能人工知能システム
- スケーラブルな深層学習
- 深層学習等の人工知能アルゴリズムの性能モデリング
- 高度な深層学習アルゴリズムの加速
- 人工知能とシミュレーションの融合
研究概要
R-CCSの研究チームの一つである「高性能人工知能システム研究チーム」は、「富岳」などの最先端の高性能計算基盤を用いた次世代のAIの探求を行うため、国内のHPCおよびAI研究機関と連携した上で、“人工知能・機械学習と高性能計算の相互的な高性能化”を目指し、特にそのための高性能システム・ソフトウェア・アルゴリズムの研究を行います。特に、具体的には深層学習の超スケール・超高速化:深層学習の最新のアルゴリズムやフレームワークと、HPCでのMPIなどの超並列化をサポートするシステムソフトウェアを用いて、ポスト京を含む大規模なスーパーコンピュータ基盤上で超スケーリングするシステム研究、深層学習や他の機械学習・AI関連のアルゴリズムを分析し、それらの性能モデリングを行い、演算カーネル部分を最新のハードウェアアーキテクチャにおいて加速するシステム研究、超高速・超スケール化した機械学習のシステムを用いて、超深層なニューラルネットワークや、高解像度GANなどの、莫大な計算量が必要な先進的AIアルゴリズムを加速するシステム研究、機械学習に代表される経験則的手法でHPCのアルゴリズムやアプリケーションを大幅に加速するシステム研究などを、内外のHPCおよびAIに関する研究機関と連携して行っていきます。
主要論文
- Jens Domke, Emil Vatai, Aleksandr Drozd, Peng Chen, Yosuke Oyama, Lingqi Zhang, Shweta Salaria, Daichi Mukunoki, Artur Podobas, Mohamed Wahib, Satoshi Matsuoka:
"Matrix Engines for HPC: A Performance Study from the Applications Perspective",
35th IEEE International Parallel & Distributed Processing Symposium (IPDPS 2021) - Albert Khaira, Truong Thao Nguyen, Leonardo Bautista Gomez, Ryousei Takano, Rosa Badia, Mohamed Wahib:
"An Oracle for Guiding Large-Scale Model/Hybrid Parallel Training of Convolutional Neural Networks",
30th ACM International Symposium on High-Performance Parallel and Distributed Computing (HPDC 2021) - Peng Chen, Mohamed Wahib, Xiao Wang, shinichiro takizawa, Takahiro Hirofuchi, Ogawa Hirotaka, Satoshi Matsuoka:
"Performance Portable Back-projection Algorithms on CPUs: Agnostic Data Locality and Vectorization Optimizations",
35th ACM International Conference on Supercomputing (ICS 2021) - Jun Li, Minjun Li, Zhigang Cai, Francois Trahay, Mohamed Wahib, Balazs Gerofi, Zhiming Liu, Jianwei Liao:
"Intra-page Cache Update in SLC Mode with Partial Programming in High Density SSDs",
50th International Conference on Parallel Processing (ICPP 2021) - Mohamed Wahib, Haoyu Zhang, Truong Thao Nguyen, Aleksandr Drozd, Jens Domke, Lingqi Zhang, Ryousei Takano, Satoshi Matsuoka:
"Scaling Deep Learning Workloads Beyond Memory Capacity",
International Conference for High Performance Computing, Networking, Storage, and Analysis (SC 2020) - Lingqi Zhang, Wahib Mohamed, Haoyu Zhang, Matsuoka Satoshi:
"A Study of Single and Multi-device Synchronization Methods in Nvidia GPUs",
34th IEEE International Parallel & Distributed Processing Symposium (IPDPS 2020) - Jens Domke, Satoshi Matsuoka, Ivan R. Ivanov, Yuki Tsushima, Tomoya Yuki, Akihiro Nomura, Shinichi Miura, Nic McDonald, Dennis L. Floyd, Nicolas Dube:
"The First Supercomputer with HyperX Topology: A Viable Alternative to Fat-Trees?",
International Conference for High Performance Computing, Networking, Storage, and Analysis (SC 2019) - Chen Peng,Wahib Mohamed,Takizawa Shinichiro,Matsuoka Satoshi:
"A Versatile Software Systolic Execution Model for GPU Memory Bound Kernels",
International Conference for High Performance Computing, Networking, Storage, and Analysis (SC 2019) - Jens Domke, Kazuaki Matsumura, Mohamed Wahib, Haoyu Zhang, Keita Yashima,Toshiki Tsuchikawa, Yohei Tsuji, Artur Podobas, Satoshi Matsuoka:
"Double-precision FPUs in High-Performance Computing: an Embarrassment of Riches?",
33th IEEE International Parallel & Distributed Processing Symposium (IPDPS 2019) - Shweta Salaria, Aleksandr Drozd, Artur Podobas, Satoshi Matsuoka:
"Learning Neural Representations for Predicting GPU Performance",
ISC High Performance 2019 (ISC 2019)