コンポーネント

NVIDIA GPUスーパーコンピュータ

Anonim

東京工業大学のコンピュータービルの2階のコンピュータルームに入るとすぐに、日本で2番目に高速なスーパーコンピューターのサイズに直面することはありません。立っている工業用空調装置のためのツバメのコンピュータは見えませんが、それ自体が喋っています。

Tsubameは、最新のトップ500ランキングで、世界で29番目に高速のスーパーコンピュータで、速度77.48TのFlopsでランクされました(これは、業界標準のLinpackベンチマークでは、1秒あたりの浮動小数点演算数)。

その位置は比較的良好ですが、それが特別なものにはなりません。椿の興味深い点は、CPU(中央演算処理装置)の処理能力だけでは処理が完了しないということです。 Tsubameには、消費者向けPCで使用されている同じ種類のグラフィックス・プロセッサーが数百も含まれています。これは、混在環境下でCPUと一緒に作業するもので、材料化学のような分野を担う将来のスーパーコンピューターのモデルとも言えます。グラフィックスプロセッサ(GPU)は、大量のデータに対して同じ計算を迅速に実行する上で非常に優れているため、分子動力学、物理シミュレーション、画像処理などの分野でいくつかの問題を短時間で処理できます。 >「今後の興味深い問題の大半で、影響が自然界から来る人類に影響を与える問題は、非常に大きなデータセットを操作して計算する能力を必要とします」とCEOのJen-Hsun Huangこの週に大学で講演したNVIDIAのツバメは、680のNvidiaのTeslaグラフィックスカードを使用しています。

GPUの違いはどれくらいですか?大学の材料化学教授である青木孝行教授は、ツバメについては3時間かかっていたシミュレーションが10時間かかると語った。

ツバメ自体は一度エアコンを通過すると2部屋に分けられ建物の床に設置され、主にラックに搭載されたSun x4600システムで構成されています。これらの中には、それぞれ65個のAMD Opteron CPUコアとその内部にある16個のAMD Opteron CPUコア、およびClearspeed CSX600アクセラレータボードがあります。グラフィックスチップは、170個のNvidia Tesla S1070ラックマウントユニットに含まれています。 Sunシステム。 1UのNvidiaシステムにはそれぞれ4つのGPUがあり、それぞれに240個の処理コアがあり、システムあたり合計960のコアがあります。

Teslaシステムは、コンピュータの稼働中に約1週間にわたってツバメに追加されました。

大学のグローバル科学情報コンピューティングセンター所長、松岡聡氏は、「人々は私たちが夢中だと思った。 「これは、1メガワットの電力を消費する10億円のスーパーコンピュータだが、技術的に可能であることが証明された」と述べた。その結果、大学のスタッフはツバメスーパーコンピュータのバージョン1.2と呼んでいる

私たちは85 [T Flops]を達成できるはずだったはずだと思っていましたが、時間がなくなり、77 [T Flops]でした」と、システム上で実行されたベンチマークの松岡氏は述べています。 85Tフロップではトップ500に2位を獲得し、日本でトップランクを獲得しました。

次回はいつもあります:2009年6月にトップ500の新しいリストが発表され、東京工業大学も探しています

「これはツバメの終わりではなく、GPUアクセラレーションの主流化の始まりに過ぎない」とマツオカは述べた。 "世界では、数年後にいくつかのペタフロップスを登録しているスーパーコンピュータがあると信じており、それに従っていきたいと思っています。"

次期バージョンアップと呼ばれるツバメ2.0は、少なくともペタフロップ(ペタフロップは1,000テラフロップス)の持続的なパフォーマンスを誇っているという。マシンの基本設計はまだ確定されていないが、CPUとGPUを混在させた異機種混合のコンピューティング・ベースを続けるだろうという。