検索
ホーム ストレージ(7)

ストレージ(7)

ハイパーバイザーベースSDSのデータストレージコスト課題とHCIの登場

VMware vSANのデータストレージTCOにおける課題
VMware vSANのデータストレージ総所有コスト(TCO)には、いくつかの課題がありました。vSANにはバージョン6.2まで、データ削減機能(重複排除や圧縮)が搭載されていませんでした。これにより、同じ量の論理データを保存するために、データ削減機能を備えた他のSDS製品に比べてより多くの物理ストレージ容量が必要となり、利用可能なTBあたりのデータ保管コストが大幅に高くなる要因となっていました。

また、特定のクラスタ化されたvSphereホストで障害が発生した場合でも、そのホスト上に配置されていたデータとVMDK(仮想マシンディスクファイル、すなわち仮想マシンのデータそのもの)をクラスタの残りのノードから確実にアクセスできるようにするには、データの複数のコピーによるミラーリング構成が必要になります。データ可用性とデータレジリエンスのベストプラクティスに従うと、元のデータのコピーが少なくとも2つ必要ですが、多くの管理者はより高いデータ保護レベルを確保するために3つのコピーを用意しています。このような設定は、データの冗長性を高める一方で、必要な物理データストレージ容量を2倍または3倍に増加させ、サーバー用ドライブの価格面の利点を相殺してしまうことになります。さらに、vSANはvSphere環境専用のストレージ機能であるため、その利用にはvSphereのライセンス費用が別途発生し、このコストは組織のデータストレージ投資において相当な額になる可能性があります。

ハイパーコンバージドインフラストラクチャ(HCI)のSDS
ハイパーコンバージドインフラストラクチャ(HCI)は、サーバー(コンピュート)、ストレージ、ネットワーク、ハイパーバイザーといったインフラストラクチャコンポーネントを、ソフトウェアによって統合し、単一のクラスタ化されたノードとして提供するアーキテクチャです。HCIは、従来の個別最適化されたインフラストラクチャにおける統合の複雑さ、高価なサーバー、過剰なデータストレージのプロビジョニング、データ可用性の問題、複雑なデータストレージ管理、ハードウェアの互換性といった課題を解決するために設計されました。HCIにおけるSDS機能は、様々なメーカーから多くの選択肢が提供されており、組織はデータワークロードの要件に合わせて幅広い製品の中から選択できます。

ハイパーコンバージドインフラストラクチャ(HCI)のSDSのデータ管理における長所
HCIのSDSは、データ管理の観点からいくつかの長所を提供します。VMware vSANと同様に、仮想マシンの管理者が仮想化環境に関連付けられたデータストレージを管理できることが多く、管理の一元化に貢献します。実際、HCIのSDS製品の中には、VMwareのvSphere vSAN技術をベースにしたものも存在します。

HCIの重要な利点の一つは、データプラットフォームのデプロイメントにおける柔軟性です。VMware vSphereだけでなく、Microsoft Hyper-V、Red Hat KVM、Citrix XenServerなど、複数のHCIベンダーが様々なハイパーバイザーの選択肢を提供しています。これにより、組織がすでに利用している、あるいは今後利用したい特定の仮想化プラットフォーム上でHCIを展開し、データワークロードを配置することが可能です。さらに、ハイパーバイザーを介さずに直接アプリケーションを稼働させるベアメタル環境(例:Dockerコンテナを使用したLinux環境)をサポートするベンダーもあり、これによりHCIを様々なタイプのデータ処理環境の基盤として利用できます。

多くのHCIのSDSでは、異なる容量のノードをクラスタ内で混在させて使用することができます。これにより、データボリュームやデータ処理能力の増加に応じて、より細かく、効率的にストレージリソースやコンピュートリソースを拡張することが可能となり、初期投資や拡張コストを最適化できます。Atlantis Computing、Maxta、StarWind、StorMagicといった一部のベンダーは、ハードウェアに依存しないソフトウェアのみのSDS実装を提供しており、これは少数派ではありますが、データストレージの物理ハードウェア選択において最大の柔軟性を提供し、既存のサーバーハードウェアをデータストレージノードとして活用できる可能性を広げます。Maxtaのように、主要なサーバーメーカーとパートナー関係を結んでいるベンダーは、ソフトウェアとハードウェアの組み合わせでソリューションを提供することで、導入の容易さを実現しています。

HCIによるデータインフラストラクチャのスケーリングとオブジェクト/ファイルSDSのデータ特性

HCIによるデータ容量とパフォーマンスのスケーリング
ハイパーコンバージドインフラストラクチャ(HCI)は、クラスタにノードを追加するのと同程度の簡便さでデータ容量とデータ処理・アクセス性能をスケーリングできます。データストレージ容量を拡張するには、既存ノードの最大容量までドライブ(HDDやSSD)を追加するか、コンピュートリソースとストレージリソースの両方を含むノードを新しく追加するだけで済みます。

HCI製品のデータスケーラビリティとデータアクセス性能の上限は製品によって異なりますが、ほとんどの製品はペタバイト(PB)規模のデータボリュームまでスケーリング可能です。データアクセス性能は、クラスタに追加したサーバーノードの数にほぼ比例して向上するため、データワークロードの増加に合わせてリソースをリニアに拡張できるモデルと言えます。

HCIの導入は、配線と電源投入、そして基本的な構成のみでデータストレージおよびコンピュートリソースをオンラインにすることが可能であり、従来のインフラストラクチャ構築に比べて非常にシンプルです。自己による複雑なシステム統合の必要性は少なく、問題発生時にはHCIのメーカーに問い合わせることで統合的なサポートを受けられるため、データインフラストラクチャの運用負荷を軽減できます。

スケールアウトオブジェクト/ファイルSDSのデータ特性とHDFS利用
多くのスケールアウトオブジェクト/ファイルSDS製品は、ビッグデータ分析基盤で広く利用されるHadoop Distributed File System (HDFS) のデータストレージ層として機能させることができます。これにより、HDFSのデフォルトのデータレプリケーション(通常3コピー)で必要となるデータコピー数を削減し、データ冗長性の効率を高めることで、HDFSのデータストレージコストを大幅に引き下げることが可能になります。また、既存のNFSやSMBプロトコルでアクセスされるファイルデータをHDFSのデータソースとして再利用できるため、データのサイロ化を解消し、データの活用範囲を広げることができます。

これらのスケールアウトSDSは、データ容量の柔軟なスケーリングが可能です。各ノードを個別に拡張できるほか、クラスタ自体にノードを追加することでデータ容量やデータ処理性能を高めることが一般的です。ただし、これらのタイプのSDSのデータアクセス性能(IOPS、レイテンシー)は、ブロックストレージのパフォーマンスには及ばない傾向があります。これは、オブジェクトまたはファイル単位でのデータ管理オーバーヘッドや、主に大容量かつ低頻度アクセスのデータ向けに最適化されているアーキテクチャに起因します。したがって、低遅延でのランダムデータアクセスが求められるワークロードには不向きな場合があります。

ハードウェアとバンドルされたスケールアウトオブジェクト/ファイルSDS製品は、比較的容易に設定、構築、およびデータ管理を開始できます。一方で、ソフトウェアとして実装する場合は、自身でシステム統合を行う必要があり、相応の技術的な専門知識が必要となります。どちらの実装形態でも、コモディティハードウェアを利用することが多く、ペタバイト、エクサバイト規模のデータボリュームを格納可能な非常に高いデータスケーラビリティを備えています。特にスケールアウトオブジェクトSDSは、イレージャーコーディングという高度なデータ冗長性技術を利用することで、従来のRAIDやレプリケーションと比較してストレージ容量のオーバーヘッドを抑えつつ、他に類を見ないデータ回復性やデータ持続性を提供します。

これらのスケールアウトSDSは、低コストでのデータ運用を目的として設計されていることが多く、提供されるデータサービス(スナップショット、レプリケーションなど)は限定的な場合があります。ライセンスは年間契約の形で提供されることが一般的です。イレージャーコーディングを使用するスケールアウトオブジェクトSDSは、データ保護に必要な容量オーバーヘッドが少ないため、GBあたりの全体的なデータ保管コストを抑える上で特に有利です。これは、大量のアーカイブデータやバックアップデータをコスト効率良く長期保存したいというニーズに適しています。

データ資産価値を最大化する、ワークロード分析に基づいた次世代ストレージ戦略

【サマリー】
企業のデータ量が加速度的に増加する中、ストレージ戦略はもはやインフラの容量計画に留まりません。本稿では、多様化するワークロード(VDI、DB、分析基盤等)のI/O特性をデータとして分析し、性能、コスト、リスクの最適なバランスを実現するデータ駆動型のストレージ選定・管理フレームワークを提言します。これは、ストレージ投資のROIを最大化し、データ資産を競争力の源泉へと変えるための分析的アプローチです。

1. 課題:ワークロードとストレージのミスマッチが引き起こす、潜在的コストとリスク
デジタルトランスフォーメーション(DX)の進展は、データ活用の多様化を促しました。仮想化基盤、データベース、ファイルサーバー、さらにはデータ分析や深層学習(ディープラーニング)基盤まで、それぞれのワークロードは、求められるI/O性能、レイテンシ、データ保護レベルが全く異なります。

多くの組織が直面する本質的な課題は、これらのワークロード特性を定量的に把握せず、画一的な基準でストレージを選定・運用している点にあります。この「ワークロードとストレージのミスマッチ」は、以下のような問題を引き起こします。

過剰投資(オーバープロビジョニング): 全てのデータに高性能なオールフラッシュストレージを割り当て、不必要なコストを発生させる。
機会損失(パフォーマンスボトルネック): 低速なストレージ上で分析基盤やデータベースを稼働させ、ビジネスの意思決定を遅延させる。
リスクの増大: 事業継続計画(BCP)で定められた**目標復旧時間/時点(RTO/RPO)**を考慮せず、重要データのバックアップ戦略を策定し、ランサムウェア攻撃などへの脆弱性を高める。
「どのストレージを選ぶべきか」という問いの前に、まず「自社のデータワークロードの特性は何か」をデータで解明する必要があります。

2. 解決策:データ駆動型ストレージ最適化フレームワーク
ストレージ投資のROIを最大化するためには、勘や経験に頼るのではなく、データに基づいた分析フレームワークを導入することが不可欠です。

ステップ1:ワークロードのプロファイリング
IOPS、スループット、レイテンシ、データ増加率、アクセス頻度といった指標を収集・分析し、各ワークロードの特性を定量的に可視化します。

ステップ2:データ価値の階層化
事業インパクトやコンプライアンス要件(データ主権など)に基づき、データを「ホット(高頻度アクセス)」「ウォーム(中頻度)」「コールド(低頻度・アーカイブ)」に分類します。

ステップ3:最適なストレージへのマッピング
上記の分析結果に基づき、各データ階層を、オンプレミスのフラッシュ/ハイブリッド、クラウドの各種サービスといった最適なストレージに配置します。これにより、性能要件とコスト効率を両立させる**情報ライフサイクルマネジメント(ILM)**を実現します。

3. セミナーで提供する分析的知見:NetAppで実現するデータファブリック戦略
本セミナーは、単なるストレージの基礎解説や製品紹介ではありません。データ駆動型のストレージ戦略を実践するための分析手法と、それを実現するソリューションを提示する場です。

ストレージ選定の体系的アプローチ: 上記の分析フレームワークを、具体的なユースケース(特にファイルサーバーの最適化など)を基に解説。自社のストレージ環境を客観的に評価するための視点を提供します。
NetAppが実現するデータファブリック: NetAppのソリューションが、オンプレミスとクラウドにまたがるデータを、いかにして一貫したポリシーで管理・保護し(データファブリック)、データ階層化を自動化して**総所有コスト(TCO)**を削減するのか、そのアーキテクチャと実例をデータと共に詳説します。
対象となる課題認識:
ストレージ投資対効果(ROI)の定量的説明に課題を抱える情報システム部門の責任者・管理者。
ファイルサーバーの性能・容量・コストの最適化に関する具体的なデータ分析手法を求めている担当者。
NetAppの技術が、自社のデータ管理・活用戦略にどのように貢献するのか、具体的な活用法を模索している技術者。
データ管理をコストセンターから、ビジネス価値を生み出すプロフィットセンターへと変革する第一歩として、本セミナーで提示するデータ分析のアプローチをご活用ください。