Googleの大規模分散処理技術

2009年9月16日(水)
丸山 不二夫

Scale-out戦略

 Googleは、インターネット・クラウド技術の完成者としてのクラウドの歴史に画期を築きました。その技術のエッセンスはエンタープライズ・クラウドにも引き継がれ今日に至るも、あらゆるクラウド技術に決定的な影響を与えています。今回はそのGoogleの大規模分散処理技術を見ていきたいと思います。

 近年、「全世界の情報」は加速度的に増大を続けており、「全世界の情報をアクセス可能にする」というGoogleの夢は、いまだ達成されてはいないように思えます。

 ただ、Webスケールの情報の大きさに初めて気づいた彼らが、それに対してどのように立ち向かおうとしたのかを振り返ることは無駄ではありません。

 彼らがとったのは、処理量の大きさには処理するシステムの規模を拡大して対応するというやり方でした。そこまでは普通ですが、超大型のスーパー・コンピューターを建設しようとしたのではないところがユニークです。

 彼らは、膨大な数の安価なマシンをネットワーク上に並べて、それを協調動作させる道を選びました。こうしたアプローチを「Scale-out」と言います。

 Scale-outの戦略を選択した背景には、ハイエンドなマシンより、コモディティ化したPCの方が技術革新の恩恵を受けるファクターが大きいという認識がありました。

 同じ能力でも、ハイエンドの大型マシンはPCのクラスタより30倍以上コストがかかるという試算をしています。Googleの目に見えない競争力の一つは、システムのこうした抜群のコスト・パフォーマンスの良さにあるのです。

 また、Scale-outのもう一つの背景には高速なネットワーク環境が安価に手が入るようになった事情もあります。

Availability(可用性)

 Scale-outの戦略には、一つ問題があります。

 それは、安価な(それは壊れやすいということを意味します)マシンを多数並べて、一つのシステムを作ることにより、システムの故障にいつも脅かされることです。

 普通平均して3年に一度故障するようなマシンでも、それが1,000台集まれば、一日にそのうち一個のマシンが故障する計算になります。数千台のマシンからなるシステムなら、一日に何回もシステムに不都合が起きるということになります。

 ここでも、Googleのとった対応はユニークなものでした。マシンは故障してはならないという想定を捨て、例外なく必ず故障するものだという前提に立ち、この故障がシステム全体のダウンを招かないように、あらゆる手段をとりました。

 また、それには故障率の低い高価なマシンを導入するのではなく、あくまでもソフトの力で障害対策を行おうとしたのです。

 Googleのシステムでは、Availabilityを維持するための恒常的なモニタリング、エラーの検出、誤りに対する強さや自動的な回復機能が、必ずシステムに組み込まれています。見かけは派手ではありませんが、これなしにはScale-outの経済的なメリットが生きません。Googleの技術のもっとも重要な構成要素と言ってもいいのが、このAvailabilityの技術です。

 筆者は、Googleの人が、次のように語るのを聞いて、とても感心したことがあります。

 「だから、なぜ、みなさんは、高価な信頼性の高いハードのことで思い悩んでいるのでしょう?信頼性の高いハードは、ソフトウエア技術者を怠け者にするだけです。障害に強いソフトウエアが安いハードを役に立つものに変えるのです。」

 でも、そうした障害に強いソフトを作り上げることが容易なことではないのは明らかです。

昨年まで、20年間、北海道稚内に在住。元稚内北星学園大学学長。現在は、活動の拠点を東京に移して、様々のコミュニティ活動に参加している。早稲田大学客員教授。Cloud研究会代表。

Think ITメルマガ会員登録受付中

Think ITでは、技術情報が詰まったメールマガジン「Think IT Weekly」の配信サービスを提供しています。メルマガ会員登録を済ませれば、メルマガだけでなく、さまざまな限定特典を入手できるようになります。

Think ITメルマガ会員のサービス内容を見る

他にもこの記事が読まれています