トップコンファレンス6-2 ハードウェア
2023/9/8 9:30-12:00
第5イベント会場
9:30-9:50 講演(1) 【タイトル邦題】 複数層インメモリ計算に関する研究
藤木 大地(慶應義塾大学 理工学部情報工学科 )
【原発表の書誌情報】 D. Fujiki, A. Khadem, S. Mahlke and R. Das, "Multi-Layer In-Memory Processing," 2022 55th IEEE/ACM International Symposium on Microarchitecture (MICRO), Chicago, IL, USA, 2022, pp. 920-936
【概要】 インメモリ計算は、メモリと計算を融合させることによりデータ移動を低減する技術であり、本論文では複数メモリ階層にわたるマルチレイヤーインメモリ処理(MLIMP)を提案する。MLIMPに並行タスクスケジューリングを導入することで、GNNやデータ並列演算の性能と効率向上を実現する。
【略歴】 2016年慶應義塾大学理工学部情報工学科卒業
2022年University of Michigan, Ann Arbor, Ph.D.
同年慶應義塾大学理工学部情報工学科助教
インメモリ計算、ゲノム処理アクセラレータ、データ中心型計算等の研究に従事。
9:50-10:10 講演(2) 【タイトル邦題】 T-SKID: アドレスの予測と分離されたプリフェッチタイミングの予測
小泉 透(名古屋工業大学 情報工学科津邑研究室 助教)
【原発表の書誌情報】 T. Koizumi, T. Nakamura, Y. Degawa, H. Irie, S. Sakai, R. Shioya: "T-SKID: Predicting When to Prefetch Separately from Address Prediction," Design, Automation and Test in Europe Conference & Exhibition (DATE), pp. 1389-1394 (2022).
【概要】 CPUの性能を向上させるため、要求がなくてもキャッシュメモリにデータを先入れするプリフェッチを、ハードウェアで行う手法が研究されている。このプリフェッチは、早すぎると性能向上につながらない。我々は、既存手法でそのような問題が発生しており、性能向上の機会を損ねていることを明らかにした。また、それを回避する、適時にプリフェッチする手法T-SKIDを提案し、評価を行った。
【略歴】 2016年東京大学理学部化学科卒業。2018年東京大学工学部電子情報工学科卒業。2023年東京大学大学院情報理工学系研究科電子情報学専攻博士後期課程修了。博士(情報理工学)。同年より名古屋工業大学情報工学科助教。プロセッサアーキテクチャと浮動小数点数演算の研究に従事。本研究の成果につき、情報処理学会2022年度山下記念研究賞受賞。
10:10-10:30 講演(3) 【タイトル邦題】 問題に応じて計算手法を選択・最適化するアニーリングプロセッサLSI「Amorphica」
川村 一志(東京工業大学 科学技術創成研究院AIコンピューティング研究ユニット 特任助教)
【原発表の書誌情報】 K. Kawamura, J. Yu, D. Okonogi, S. Jimbo, G. Inoue, A. Hyodo, Á. L. Garcı́a-Arias, K. Ando, B. H. Fukushima-Kimura, R. Yasudo, T. V. Chu, M. Motomura, "Amorphica: 4-Replica 512 Fully Connected Spin 336MHz Metamorphic Annealer with Programmable Optimization Strategy and Compressed-Spin-Transfer Multi-Chip Extension," IEEE International Solid-State Circuits Conference (ISSCC) Digest of Technical Papers, pp. 42-43, 2023.
【概要】 本研究では、複数の計算原理を選択的に利用できる計算機アーキテクチャを設計し、新規のアニーリングプロセッサLSI「Amorphica」を開発した。Amorphicaの着想は本研究グループが実施した多数回の数値シミュレーションにあり、その中で組合せ最適化問題の性質と最適なアニーリング計算原理の間に相関があることを発見した。この性質を活用し、Amorphicaは対GPU比でおよそ3万倍の電力効率を達成している。
【略歴】 2012年早稲田大学情報理工学科学士、2013年同大学大学院情報理工学専攻修士、2016年同博士(工学)。
2018年より早稲田大学情報通信学科講師(任期付)。
2020年より東京工業大学科学技術創成研究院AIコンピューティング研究ユニット特任助教。
JST CRESTの研究員としてアニーリングプロセッサの研究に従事。
10:30-10:50 講演(4) 【タイトル邦題】 マイクロサービスにおける階層的ボトルネックの検出
稲垣 達氏(日本アイ・ビー・エム株式会社 )
【原発表の書誌情報】 Tatsushi Inagaki, Yohei Ueda, Moriyoshi Ohara, Sunyanan Choochotkaew, Marcelo Amaral, Scott Trent, Tatsuhiro Chiba and Qi Zhang, "Detecting Layered Bottlenecks in Microservices," 2022 IEEE 15th International Conference on Cloud Computing (CLOUD), Barcelona, Spain, 2022, pp. 385-396, doi: 10.1109/CLOUD55607.2022.00062.
【概要】 ソフトウェアの性能のボトルネックは要素間の依存関係による階層構造を成すため,大規模で迅速な開発環境ではモデル化が難しい.本研究では,マイクロサービスアーキテクチャの特性を利用することで,標準的なデバッグツールを使ってDeathStarBenchやAcmeAir microservicesの性能ボトルネックを検出及び視覚化できることを示す.
【略歴】 1998年東京大学理学系研究科情報科学専攻博士課程退学.現在,日本アイ・ビー・エム株式会社東京基礎研究所に勤務.コンパイラ,性能解析,コンテナのセキュリティなどの研究開発に従事.
10:50-11:10 講演(5) 【タイトル邦題】 柔軟性の代償: HPC向けCGRAにおける組み込みルーターとディスクリートルーター
Boma Anantasatya Adhi(理化学研究所・計算科学研究センター )
【原発表の書誌情報】 B. Adhi, C. Cortes, Y. Tan, T. Kojima, A. Podobas and K. Sano, "The Cost of Flexibility: Embedded versus Discrete Routers in CGRAs for HPC," 2022 IEEE International Conference on Cluster Computing (CLUSTER), Heidelberg, Germany, 2022, pp. 347-356, doi: 10.1109/CLUSTER51413.2022.00046.
【概要】 歴史的にCGRAの使用は組込みシステムに限られており、機械学習やHPCのアクセラレータとして考慮されるようになったのは最近のことである。組込みシステムとHPCでは要件や制約が異なるため、CGRAをHPC用途に適合させるためにどのような設計上の決定を下す必要があるかは、現在では十分に理解されていません。今日、イントラCGRAインターコネクトには、コンピュートユニットに密接に組み込まれたルータを使用する方法と、コンピュートユニットの外部にあるディスクリートルータを使用する方法の2種類がある。前者は柔軟性とハードウェアコストの削減をトレードオフにしており、後者は柔軟性が高いがリソースを多く消費する。我々は、パフォーマンス、ルーティング可能性、リソース使用量に関するこれら2つの選択肢のトレードオフを理解することを目指している。
【略歴】 ボマ・アディはインドネシア大学で学士号と修士号を、早稲田大学で工学博士号を取得した。現在、理研R-CCSポスドク研究員。専門はコンピュータ・アーキテクチャ、デジタル回路設計、コンパイラ。