PR
連載 :
  インタビュー

Datriumの創業者が語った「次世代ハイパーコンバージド」とは?

2018年7月5日(木)
松下 康之
次世代ハイパーコンバージドのDatriumの創業者に、システムの背景とクラウドネイティブのエンタープライズにおける意味を語ってもらった。

次世代のハイパーコンバージドインフラストラクチャーを開発するシリコンバレーのベンチャー、Datrium(デイトリウム)の創業者でチーフサイエンティストのHugo Patterson氏が、日本法人であるデイトリウムジャパン合同会社が開催したイベントに合わせて来日した。過去にNetAppやData Domain(のちにEMCが買収)でアーキテクチャーの設計など中心的な役割を果たしてきたHugo Patterson氏に、ハイパーコンバージドインフラストラクチャーの弱点を克服したとされる「Datrium DVX」の設計の背景などについてインタビューを行った。

Datriumの創業者、Hugo Patterson氏

Datriumの創業者、Hugo Patterson氏

Datrium DVXの特徴としては、コンピュートとストレージを一体化するハイパーコンバージドインフラストラクチャーを再度ゼロから見直して、コンピュートノードとストレージを置くデータノードを分離したことや、スナップショットをバックアップの機能として利用しているところなどが挙げられる。前回、本社を訪問して解説を受けた時にも「NetApp、Data Domainでは完全に問題を解決できなかったが、Datriumで初めて満足のいくシステムができた」と語っていたPatterson氏に、技術的な背景や他社との比較について語ってもらった。

Datriumの概要に関しては、以前の記事も参考にしていただきたい。

デイトリウムが語るINSANEな次世代のハイパーコンバージド

Datrium DVXの設計思想について背景を教えてください。前回のインタビューでは「20年かかった」とおっしゃっていましたが。

私がNetAppにいた時には、エンタープライズが抱えるデータ保護の問題について、最初の解答をシステム化することができました。それは基幹システムが抱える大量のデータを保護するために、ストレージはどうすればいいのか? という問題です。当時は最大でも2Tバイトというのがストレージの上限でした。今となっては大した容量ではありませんが、なにしろ20年も前の話ですからね。当時はこれでも大きな値だったのです。当時のデータベースは大きくても数百Gバイト程度で、それをバックアップするためにはテープアーカイブを使うのがコスト的にも妥当だったのです。しかしそれでは時間もかかりますし、リストアのコストがとても大きかったのです。単純にテープにデータのコピーを行うというのは良い方法ではありません。そこでディスクにバックアップを行うというのがブレークスルーだったのですが、ディスクコントローラーはその頃から大きな負荷がかかっていました。

そこでアクセス用とは別にバックアップ用のコントローラーを用意して、そこからデータを吸い上げるということを行っていたわけです。しかし、それもあまりよい方法ではありませんでした。そこでその当時、NetAppで私はSnapVaultを開発しました。これはスナップショットをとることでバックアップを行うものですが、それでもまだベストな解決策のためにワンステップ進んだだけだったのです。

次のData Domainでは、重複排除やイレイジャーコーディングなど、データ保護に関する多くの進歩がありました。しかしそれでも「スケールアウトするストレージ」という部分が欠けていました。それをDatrium DVXで、やっと実現できたと思っています。

スケールアウトというとどうしてもハイパーコンバージドインフラストラクチャーが例に挙がりますが、従来のものとの違いはどのように発想されたのですか?

初期のハイパーコンバージドインフラストラクチャーの一例がEMCのVblockです(注)が、これはシスコのUCSサーバーとEMCのVMAXというストレージ、それにVMwareのソフトウェアを組み合わせて作ったものです。今から見ればダクトテープで貼り合わせてあるような製品でしたが、それでもそれはエンタープライズ企業からは評価されていました。その特徴であった「スケールアウト」という部分において、エンタープライズ企業のコメントは「1台ずつ増やしていくのではなく、増やすときはラック単位で行う」というものがあったのです。エンタープライズ企業のIT部門にとってみれば、細かく1台ずつ増やすというのは現実的ではありませんでした。それは今も変わらないと思います。

そしてコンピュートとストレージが一体となっているシステムについては、コンピュートだけもしくはストレージだけ欲しいというニーズには応えられないということは、すでに明らかだったのです。そこで「ではそのニーズを満たす製品をゼロから作ってみよう」と考えたのがDatriumでした。そして常に別機能として脇に追いやられていたバックアップを、スナップショットを使って高速に使いやすくするというのがゴールでした。

注:Cisco、EMC、VMwareの3社がVCEという企業を設立してコンバージド製品を発表したのは2009年。Nutanixが設立されたのが同じ2009年なのでほぼ同時だが、すでにあるものを組み合わせてハイパーコンバージドインフラストラクチャーを作れるということを強調したかったようだ。実際Nutanixにしても、KVMやCassandraなどのオープンソースソフトウェアを組み合わせて実装されている。

ハイパーコンバージドインフラストラクチャーなのに、コンピュートとストレージが分離している、そしてストレージのバックアップがスナップショットとして基本機能に含まれているというのが特徴だと理解していますが、今後のコンテナなどのワークロードにも対応できますか?

ハイパーコンバージドインフラストラクチャーによくある「複数のプラットフォームにそれぞれ対応したクラスターを作らなければいけない」というのは間違っています。例えばハイパーバイザーが何であれ、同じようにコンピュートとストレージのプールを管理できるべきなのです。仮想化というのはVMwareが最初に始めてその利点をエンタープライズ企業が認めたことによって拡大したわけですが、Nutanixはその代替を提供しようとしているのだと思います。仮想マシンの使い勝手の良さを、より安価にシンプルに提供するという発想ですね。しかし仮想マシンベースでワークロードを管理するということ自体が、すでに時代遅れになっていると思います。つまり仮想マシンもコンテナもそしてストレージも、同時に一元的に管理できるべきなのです。

Datriumであれば、それは可能です。私には、Nutanixがすでに時代遅れとなっているものを追いかけているというように見えますね。ハイパーコンバージドインフラストラクチャーとの違いを一つ挙げますが、全体を一つのプールとして扱うという部分では、Datriumはノードとデバイスを分けて管理しています。

例えば、データノードから全てのストレージデバイスを抜いてランダムに戻したとしましょう。サーバーとストレージデバイスが密に結合しているシステムでそんなことをしたら、システムは使えなくなりますよね(笑)。でもDatriumではそれは可能なのです。なぜならストレージはシステム全体で管理されており、どのサーバーに接続されているのかは関係ないからなのです。これによって、グローバルな重複排除が可能になったのです。

クラウドネイティブなシステムということで、パブリッククラウドに対してスナップショットを送る機能がありますが、これもDatriumの特徴でしょうか?

そうですね。これはラックの中で動いているソフトウェアを、そのままクラウド側に持って行って連携するものです。パブリッククラウド側にデータを置けることで、コストや管理がかなり楽になります。別のラックにあるものと同じように、クラウドを使うことができるのです。

ただ一般に使われる「クラウドネイティブ」という言葉には誤解があるように思います。例を挙げるとVMwareとGoogleは、コンピューティングのスタイルで言えば全く逆の例と言って良いでしょう。VMwareの提供するサーバー仮想化は、すでにあるサーバーのCPUコアを余らせないように複数のプロセス(仮想マシン)で使うというものです。一方Googleのやっていることは、インターネット全体を検索し、大量のCPUとメモリーを使って世界をインデクシングしています。そのためには、いくらCPUがあっても足らないわけです。つまりプロセスは一つですが、CPUもメモリーもストレージも大量に消費するというシステムです。エンタープライズがクラウドネイティブなシステムを目指す時に、どちらが向いているのかは明らかではないでしょうか。

つまりエンタープライズはむやみにGoogleのやっていることを真似せずに、今持っている資源を有効活用することに留意するべきだと言うことですか?

誰もがGoogleになる必要はありません。実際にはまだレガシーなシステムも残っているでしょうし、新しいコンテナベースのシステムもこれからは必要になるでしょう。しかしそのために全てを入れ替える必要があるのかは、よく考えるべきです。

IT業界ではエネルギッシュで早口なキーパーソンが多いが、Patterson氏はゆっくりとした口調でむしろ落ち着いた雰囲気の中、Datriumの特徴や背景、そして他社との違いについて語ってくれた。データ保護の専門家がハイパーコンバージドインフラストラクチャーの欠点を解消するために、ゼロから発想して作り上げたのがDatriumであるが、日々の開発は全てコンテナで行われており、毎日数ペタバイトという規模のシステムソフトウェアとテストデータをラボのサーバーにデプロイしながらテストを繰り返しているという。そんなPatterson氏が見ている先には、コンテナやベアメタルなどのトレンドも入っているようだ。今後の進化に注目したい。

フリーランスライター&マーケティングスペシャリスト。DEC、マイクロソフト、アドビ、レノボなどでのマーケティング、ビジネス誌の編集委員などを経てICT関連のトピックを追うライターに。オープンソースとセキュリティが最近の興味の中心。

連載バックナンバー

ネットワークインタビュー

シスコのDevNet担当者に訊いたコミュニティの育て方とは

2018/8/14
自社製品に付随するソフトウェアに関するコミュニティの醸成を目指すシスコシステムズのエンジニアに、「コミュニティ」の意味を訊いてみた。
資格・試験インタビュー

オープンソースの資格制度を運用するLPIが日本支部を結成 LPI-Japanとの違いとは?

2018/7/31
LPI(Linux Professional Institute)のExecutive Directorにインタビュー。LPI-Japanとの違い、今後の方向性、資格保持者の扱いなどについて聞いた。

Think IT会員サービス無料登録受付中

Think ITでは、より付加価値の高いコンテンツを会員サービスとして提供しています。会員登録を済ませてThink ITのWebサイトにログインすることでさまざまな限定特典を入手できるようになります。

Think IT会員サービスの概要とメリットをチェック

他にもこの記事が読まれています