古いバージョンのブラウザーを使用しています。MSN を最適にご利用いただくために、サポートされているバージョンをご使用ください。

HPE「The Machine」は、ムーアの法則終焉の危機感が生んだ

ザテレビジョン のロゴ ザテレビジョン 2017/06/19
HPE「The Machine」は、ムーアの法則終焉の危機感が生んだ © KADOKAWA CORPORATION 提供 HPE「The Machine」は、ムーアの法則終焉の危機感が生んだ

 われわれは、いずれやって来る「『ムーアの法則』の終焉」に向けた準備が出来ていないのではないか――。米ヒューレット・パッカード・エンタープライズ(HPE)が進める次世代コンピューティングアーキテクチャの開発研究プロジェクト「The Machine」は、こうした危機感から始まったという。  The Machineプロジェクトでは今年5月、160TBという世界最大の単一メモリシステムを実装したプロトタイプによる実証実験の成功を発表している。今回、HPEが米国で開催した年次イベント「HPE Discover Las Vegas 2017」の会場で、The Machineプロジェクトを率いるカーク・ブレスニカー氏に、プロジェクト誕生の裏話や、「メモリ主導型コンピューティング」で実現する新たなユースケースなどを聞いた。 Hewlett Packard Labs チーフアーキテクト 兼 HPEフェローのカーク・ブレスニカー(Kirk Bresniker)氏 Hewlett Packard Labs チーフアーキテクト 兼 HPEフェローのカーク・ブレスニカー(Kirk Bresniker)氏 コンピューター技術が“頭打ち”になれば、未来は現実のものにならない ――The Machineプロジェクトは順調に進んでいるようですね。5月には実証実験成功が発表されました。  メモリ主導型コンピューティングのアイディア自体は10年ぐらい前からあったが、その具体化に向けたリサーチプログラムの構想を、2014年のHPE Discoverで発表した。2016年11月には、メモリファブリックやフォトニクス(光通信)などの技術要素を組み合わせたマシンで、そのハードウェアに最適化したLinuxを動作させることに成功した。  その後さらに構成スケールを拡大し、160TBの単一メモリシステムというマイルストーンを達成したというのが、今年5月の発表だ。このプロトタイプ機では、数千ものマイクロプロセッサコア(カビウムのARM SoC「ThunderX2」)と巨大なメモリプールをフォトニクスで接続し、“ブレイクスルー”と呼べるレベルのパフォーマンスを達成している。電力効率が高いことも特徴だ。 The Machine実証実験では40ノードのプロトタイプ機が使われた The Machine実証実験では40ノードのプロトタイプ機が使われた  ノートPC 1万台ぶん以上に相当する160TBメモリを搭載するシステムは、まだ誰も経験したことがない。従来型のサーバーで巨大なクラスタを構成しても、それは「単一の」メモリシステムではない。The Machineの場合は単一メモリ空間なので、すべてのマイクロプロセッサコアがひとつのインストラクションを読み込むだけで、ファブリックを介してすべてのメモリ(上のデータ)にアクセスできる。このアーキテクチャでは、最大で4096ヨタバイトの単一メモリをサポートする。これは、現在世界にあるデジタルデータ総量の25万倍の規模である。  最初の技術的マイルストーンを達成した現在は、次にどの分野のコンピューター科学を調査研究すべきか、どのようなアプリケーション分野で使ってもらえるかを検討している。たとえるならば、望遠鏡(=The Machineのプロトタイプ)が完成したので、どの方向を見てみようかと考えているところだ。 今回の実証実験ではノートPC 1万台ぶん以上の単一メモリシステムを構成した 今回の実証実験ではノートPC 1万台ぶん以上の単一メモリシステムを構成した ――そもそもなぜ、The Machineを開発しようと思ったのですか?  HP(当時)とコンパックが合併した2003年ごろ、わたしはHPでブレードサーバーの開発を担当していた。合併後、(コンパックのキャンパスがあった)ヒューストンに行ってコンパックのProLiantサーバーチームに出会い、彼らもわたしと同じようなことを目指していることに気づいた。こうして新たな開発チームが立ち上がり、「BladeSystem c-Class」というすばらしい製品を生み出した。  開発をしている人ならわかると思うが、成功すると「次は何か?」を考えるものだ。わたしも考えたが、次に成功しそうなアイディアよりもまず、「ムーアの法則」が終焉に向かっていることを強く感じた。  すでに当時、半導体製造プロセスは22nm(ナノメートル)まで微細化していた。たとえその後、16nm、10nm……と微細化が続いても、いずれは物理的限界を迎えて頭打ちになる。その汎用プロセッサだけでなく、汎用OS、ハードディスクベースのストレージ、リレーショナルデータベース――すべての技術が“完成”ではなく“完了”しつつあると思った。  「ムーアの法則」以後、コンピューターは常に前世代よりも性能改善することが歴史的必然のように思われてきた。しかし現実には、いずれ限界が訪れる。しかも、(コンピューターを構成する要素の)すべての限界が同時期に来るかもしれない。そう考えると、とてもショックだった。自分が勤務しているHPは、現在のコンピューターの基盤技術が“終わる”ときに向けた準備が出来ているだろうか、と。  それと同時に、デジタルデータの急増にも目を向けた。われわれが生成するデータは、まるで上限がないかのように増え続けている。その一方で、自動運転やスマートファクトリーといったユースケースを考えればわかるが、データから洞察を得るスピードへの要求はますます厳しくなっている。膨大なデータには機械学習を適用することも必要になるだろう。しかし、コンピューター技術が“頭打ち”になってしまえば、こうした未来は現実のものにはならない。  そこでこのプロジェクトが立ち上がったわけだ。まずはHP Labsで始まり、現在はHPEの製品エンジニアリングチーム、サプライチェーン、サービスとも連携し、継続して成長できる体制を追求している。2014年に発表した際は「大胆な構想だ」と言われたが、今ではそれは着実に現実のものになりつつある。 ――現在、どのぐらいの規模のチームで取り組んでいるのでしょうか?  プロジェクトには、HP LabsとHPEのビジネスグループなど500名以上が関わっている。複数の拠点で研究開発を展開しており、たとえばフォトニクスのアセンブリは7カ国の開発者が協力して実現した。 プロトタイプの実装作業(The Machineプロジェクトサイトより) プロトタイプの実装作業(The Machineプロジェクトサイトより) メモリ主導型コンピューティングはビッグデータの多角的分析を可能にする ――The Machineプロジェクトでは「メモリ主導型コンピューティング」の実用化を目指しています。メモリ主導型コンピューティングは、どのようなユースケースで役立つのでしょうか。実例を教えてください。  たとえばドイツのゲノム研究所DZNEでは、The MachineのプロトタイプとSuperdome Xプラットフォーム(※既存製品をベースに大容量メモリとメモリ主導型コンピューティングに最適化したソフトウェアを実装)の両方を利用し、2週間で9倍の高速化に成功した。  またHPE社内では、少しのコード変更だけで「Apache Spark」を15倍高速化することができている。ほかにも、セキュリティログのグラフ(相関関係)を表示する大規模なデータ分析ワークロードを試すことができた。この事例はエレメントどうしの相関関係のランダム性が高く、旧来のコンピューターでは不可能に近かったものだ。  また、財務サービスのアプリケーションでは、大量のメモリリソースという特徴を生かし、メモリ上に計算結果を保持するようコードを変更した。再計算するのではなく、メモリ上に保持されたデータを読み取ればいいので無数の計算処理ができる。これにより1万倍も高速になったうえ、計算あたりの電力コストも削減できた。  HPC(ハイパフォーマンスコンピューティング)と呼ばれる高度な科学計算分野には、メモリ主導型アーキテクチャが自然にフィットするだろう。この分野は常に処理能力の向上を求めているし、ユーザーが自らアプリケーションを開発しており、プログラミングスタイルを新しい技術に適用させることにも長けているからだ。 メモリ主導型コンピューティングの活用が考えられる分野の例 メモリ主導型コンピューティングの活用が考えられる分野の例 ――先ほど「160TBメモリを搭載するシステムは、まだ誰も経験したことがない」とおっしゃいました。メモリ主導型コンピューティングが実用化された際に、ユーザーはそのコンセプトを理解し、使いこなせるようになるでしょうか。  たしかにここでは新しいソフトウェアのアプローチが必要かもしれない。最終的に判断を下すのは人間だが、膨大なデータを扱うためには機械学習のテクノロジーも必須となる。  たとえば、先述のDZENはアルツハイマー病などを研究する機関だが、彼らが必要とするコンピューターは、患者のゲノム情報だけでなくMRI画像、健康や運動、食事や栄養などの状態、服用中あるいは過去に服用した薬など、ありとあらゆるデータを同時に、しかも全員ぶんを一度に参照できるというものだ。The Machineは、そうした“視野の広い”コンピューターを可能にする。  実は、これまで視野を狭めていたのは人間自身だった。たとえばMRI画像を参照するとき、同時にゲノム情報や栄養状態のデータは見ていなかった。ここでは人間が(医学の知見などに基づき)「見るべきデータ」を決めているわけだが、人間のバイアスがかかっているとも言える。すべてのデータを同時に見ることのできるシステムがあり、バイアスのかからない機械学習によって、データから新たな洞察が得られる可能性がある。同じように、多様かつ膨大なデータを一度に参照できるコンピューターは、サプライチェーンや製造、エネルギーといったほかの業界でも有用なはずだ。  このように、メモリ主導コンピューティングはデータ洞察における新たな可能性の素地を提供する。これまで実現不可能だったような、面白いアプリケーションが出てくるだろう。 メモリ主導型普及に向けた業界団体「Gen-Z Consortium」立ち上げ ――The Machineプロジェクトで開発されたソフトウェアは、オープンソースで公開されていますね。  ハードウェアが先行しているが、ソフトウェア側でも並行して研究開発を進めている。メモリ主導型コンピューティングへの挑戦は、HPE一社の取り組みを上回る大きなスケールのものだと考えている。そこでわれわれは、プロジェクトで開発したものほぼすべて、5000近いモジュールをオープンソースソフトウェアとして公開している。  一方、ハードウェア側では「Gen-Z Consortium」という業界団体が立ち上がった。ここではDell EMC、ファーウェイ、IBMなど競合するシステムベンダーをはじめ、AMD、カビウム、マイクロン、ウエスタンデジタル、レッドハット、サムスンと、さまざまな立場の企業が参加し、巨大メモリプールに高速アクセスできるオープンスタンダードな技術仕様を開発中だ。 Gen-Z Consortiumでは、大容量メモリプールへのオープンスタンダードなアクセス仕様を策定している(出典:Gen-Z Consortium) Gen-Z Consortiumでは、大容量メモリプールへのオープンスタンダードなアクセス仕様を策定している(出典:Gen-Z Consortium) ――メモリ主導型コンピューティングというビジョン、The Machineプロジェクトに対する、顧客やパートナーの反応はどうですか。  HPE Discoverの会期中、The Machineのユーザーグループを立ち上げた。The Machineが実現するメモリ主導型コンピューティングに関心のある開発者、技術者、業界の専門家などに集まってもらい、可能性やユースケースについて話し合ったり、技術情報を共有していく場となる。 ――プロジェクトの今後の計画は?  次のマイルストーンはGen-Z Consortiumにおける標準仕様の策定だ。現在、今年夏の仕様完成に向けて策定作業が進んでいる。標準仕様が決まれば、シリコン設計チームが本開発に取り組めるし、ソフトウェア開発も進む。  2019年には、初の最適化されたシリコン実装が登場するものと期待している。  今のところはデータセンター向けの方向性で開発が進んでいるが、第2世代、第3世代のシリコンを開発する段階になると、組み込み向けやIoTセンサー向けへも取り組みを拡大させる方針だ。 The Machineプロジェクトの今後のロードマップ The Machineプロジェクトの今後のロードマップ ■関連サイト HPE「The Machine」プロジェクトサイト 日本ヒューレット・パッカード Gen-Z Consortium

HPE「The Machine」は、ムーアの法則終焉の危機感が生んだ

HPE「The Machine」は、ムーアの法則終焉の危機感が生んだ
© KADOKAWA CORPORATION 提供

ザテレビジョンの関連リンク

ザテレビジョン
ザテレビジョン
image beaconimage beaconimage beacon