データコンサルタント視点から見るHPE Intelligent Data Platformとデータ管理戦略
データコンサルタントの視点から見ると、HPEは年間の売上高310億ドルというデータに基づき、サーバー、ストレージ、ネットワーク、インフラストラクチャソフトウェア、および技術サポートとコンサルティングサービスといったデータインフラストラクチャおよびデータ管理ソリューションを提供する主要ベンダーです。HPEはストレージの実装に関して顧客に幅広い選択肢を提供しており、これはデータコンサルタントがお客様のデータ保護、データ管理、およびデータ活用戦略を策定する上で重要な要素となります。そのストレージポートフォリオは、プライマリーおよびセカンダリーデータストレージ、ブロックベース、ファイルベース、およびオブジェクトベースといった多様なデータタイプのサポート、スケールアップおよびスケールアウトといったデータアーキテクチャ、さらにInfoSightのようなクラウドベースの予測分析プラットフォーム(運用データ分析にAI/MLを活用)を含んでいます。ストレージアプライアンス、ソフトウェア定義のハイパーコンバージドインフラストラクチャ(HCI)、コンバージドインフラストラクチャ(CI)、およびクラウドベースのサービスといった製品形態は、異なるデータ管理ニーズやデータ処理要件に対応するための柔軟性を提供します。1939年に設立されたHPEは、あらゆる規模の企業に対して実績のある信頼できるサプライヤーであり、「99.9999%以上」という高いデータ可用性保証は、データ保護とBCPにおけるその信頼性データを示すものです。オールフラッシュアレイ(AFA)の売上がこの市場のリーダー企業の一つに数えられる規模であるというデータは、高性能なデータ処理を支えるプライマリーデータストレージ市場におけるHPEのプレゼンスを裏付けています。
HPE Intelligent Data Platformは、エンタープライズインフラストラクチャ基盤を起点とし、ミッションクリティカル、汎用、セカンダリー、およびビッグデータ/AIといった多様なアプリケーションワークロード(大量データの分析処理、トランザクション処理など)間でデータフローとデータ処理リソースの「最適化コンポーザブルシステム」として調整・最適化を図るデータ管理プラットフォームです。HPEブランドのストレージ製品には、ミッションクリティカル、汎用、およびセカンダリーストレージ向けのHPE 3PAR StoreServ、HPE Nimble Storage、HPE Nimble Storage Hybrid、およびHPE StoreOnceなどがあり、これらの異なるデータ重要度(ミッションクリティカル性)やデータタイプ(プライマリー、セカンダリー)に対応するデータ保管機能を提供します。
BlueData Software(どこでも稼働可能)と一体になったHPE Apolloシステムは、AI/ML駆動型のビッグデータ分析(大量データの分析処理)のためのデータ基盤を提供するソリューションです。HPE SimpliVity、HPE Synergy(ストレージと接続)、およびHPE ProLiant(ストレージと接続)は、プライベートクラウド(データ処理環境)の基盤を提供します。さらに、HPEはアマゾン、マイクロソフト、グーグルなどの主要パブリッククラウドもサポートしており、HPEクラウドベースのストレージサービス(HPE Cloud Volumes、HPE Cloud Bank)も提供している点は、ハイブリッド・マルチクラウド環境におけるデータ連携とデータ保管の柔軟性を示唆し、データ管理戦略における多様な選択肢を提供します。
これらの独立したシステム間での「ネイティブデータの移動性」は、それらがクラウド環境と非クラウド環境のどちらに導入されているかを問わず、データのライフサイクル管理(データ保管、保持、アーカイブ、消去)、ハイブリッド開発とテスト(異なる環境間でのデータコピー、データ同期)、ハイブリッド分析(分散データの分析処理)、最新のデータ保護ソリューション(バックアップ、リカバリ)に至るまで、さまざまなデータ関連ユースケースのためのデータやアプリケーションの移動を可能にします。これは、ハイブリッド環境におけるデータモビリティとデータ連携の重要性を示唆するものです。
これらの独立したシステム(データ基盤)のそれぞれに、システムとワークロードの状態を包括的に監視し、相当量の遠隔測定データ(運用データ、パフォーマンスデータ、健全性データ)を生成するセンサーが備わっています。そのすべてのデータは収集され、HPEのクラウドベースのGlobal Intelligence Engine(GIE)に安全に送信されます。このプロセスは、ハイブリッド環境全体からの運用データ収集とデータ統合、および中央集権的なデータ分析プラットフォームによる運用データ分析を示唆します。GIEにおけるAI/MLを活用したデータ分析は、運用データに基づいた異常検知、パフォーマンスボトルネックの特定、および将来的なリソース需要の予測といったデータインテリジェンスを提供することを意味し、データ駆動型運用を支援します。データコンサルタントとして、HPE Intelligent Data Platformがお客様のデータ管理、データ保護、データ活用戦略にどのように貢献できるかをデータ分析に基づき評価し、最適なソリューション導入を支援します。
データコンサルタント視点から見るクラウド利用の進化とオンプレミスクラウドの台頭
データコンサルタントの視点から見ると、Amazon Web Services (AWS)、Google Cloud Platform (GCP)、Microsoft Azureといった主要クラウドサービスは、現在のデータインフラストラクチャにおける主要な選択肢の一つとなっています。しかし、データ保護要件、コストデータ、既存システムとのデータ連携、運用体制といった様々なデータ関連の理由から、全てのワークロード(特定のデータ処理タスクやアプリケーション)をこれらのクラウドサービスに移行させたいと考えるユーザー企業は多くないのが現状です。
このような状況を踏まえ、IT企業やそのパートナーは、「オンプレミスクラウド」、すなわちクラウドサービスのメリット(データ処理リソースの柔軟な調達、スケーラビリティ、運用効率など)をオンプレミスインフラでも実現するための構築サービスに注力する必要があるとデータコンサルタントは提言します。IT企業Leidos傘下のMSPである1901 Groupの最高成長責任者を務めるポール・ウィルキンソン氏が指摘するように、「オンプレミスクラウドのニーズは高まり続ける」という発言は、このようなデータ管理の柔軟性に対する市場の需要がデータに基づき上昇していることを示唆しています。
「オンプレミスクラウド」が求められる背景:データ管理とコストの課題
「オンプレミスクラウド」が求められる背景には、オンプレミスインフラを構築する際にユーザー企業がサーバーやストレージといったデータ保管・処理リソースをデータに基づき過剰に購入しがちであるというコストデータ上の課題があります。クラウドサービスであれば、使用したデータ処理リソースやデータ保管量といったデータ利用量に基づいた従量課金となるため、設備投資(CapEx)が不要である点が対照的です。ただし、システムインテグレーターであるInsight Enterprisesのクラウドおよびデータセンター変革部門のプラクティスディレクターを務めるケント・クリステンセン氏が説明するように、「クラウドサービスは必ずしも安価になるとは限らず、オンプレミスインフラより高額になることもある」というコストデータ上の現実も存在し、ワークロード特性やデータ利用量に基づいた慎重なコスト分析が重要であることを示唆します。Insight Enterprisesにおけるオンプレミスクラウド事業が「年間数百パーセント規模で成長している」というデータや、「オンプレミスクラウドを手に入れようとするユーザー企業は爆発的に増えている」というクリステンセン氏のコメントは、特定のデータ管理要件やコスト要件を持つ企業がオンプレミス環境でのクラウド的なデータ管理アプローチを求めている現状をデータに基づき裏付けています。
「オンプレミス回帰」トレンドとデータ分析
システムのパブリッククラウド移行が進む一方で、パブリッククラウドからオンプレミスに戻る「オンプレミス回帰」を選ぶ企業が相次いでいるという市場トレンドデータも観測されています。このオンプレミス回帰の背景と原因をデータコンサルタントの視点から分析します。調査会社IDCが2022年に発表した調査データによると、パブリッククラウドを利用している回答企業の71%が、パブリッククラウドに配置しているアプリケーションの一部または全てを、2023年末までにオンプレミスに移行することを計画している点は、このトレンドの規模を定量的に示すものとして非常に重要です。
企業がパブリッククラウドからオンプレミスに戻る主な理由は、データ管理、コスト、セキュリティ、運用といったデータ関連の側面に関連しており、これらの理由の詳細は以降の分析で明らかになります。データコンサルタントとして、これらの市場トレンドデータと個別企業のデータ保護要件、コスト構造、運用能力を総合的に分析し、最適なIT基盤戦略の意思決定を支援します。
データコンサルタント視点から見るSpectrum Virtualizeによるハイブリッド・マルチクラウド環境のデータ管理
データコンサルタントの視点から、ローエンドからミッドレンジストレージを含む様々な環境でハイブリッドクラウドを実現するためのデータ管理ソリューションとして、IBM Spectrum StorageファミリーのSpectrum Virtualize(SV)は注目に値します。SVは、2003年に登場し、全世界で18万5千台以上の導入実績データを持つIBM Storage Volume Controller(SVC)をソフトウェア製品化したものです。このソリューションは、他メーカーを含む500種類以上のストレージ製品(多様なデータ保管インフラ)を仮想化することができ、異なるストレージ間でのデータ移動・同期を容易に行えるようにするデータ管理機能を提供します。
SVは、現在もIBM FlashSystemというハードウェアアプライアンス製品に実装されているソフトウェアとして提供されています。ローエンドのFlashSystem 5010からハイエンドのFlashSystem 9200/9200Rまで同じソフトウェアで稼働している点は、異なる性能レベルのストレージインフラストラクチャ全体にわたるデータ管理の一貫性を示唆し、運用上の複雑性を軽減します。FlashSystem 5010/5030が個別のSSD保守費用・交換費用が不要なローコストなストレージ製品である点は、特定のデータ保管ニーズにおけるコストデータ最適化の選択肢として評価できます。他メーカーのブロックストレージを仮想化して使用する機能は、FlashSystemのミッドレンジモデルであるFlashSystem 5100から利用可能です。
Spectrum Virtualize for Public Cloud (SV4PC) によるハイブリッド/マルチクラウドデータ移動性
Spectrum Virtualizeは、クラウド向けのソフトウェアとしても販売されており、Spectrum Virtualize for Public Cloud(SV4PC)という製品名でIBM CloudとAWSに対応しています。たとえオンプレミスに他メーカーのストレージしかない場合でも、FlashSystem 5100のような互換性のあるストレージとクラウド上にSV4PCを採用することで、オンプレミスとクラウドとの間のデータ移動・同期(ハイブリッドクラウド環境でのデータモビリティ)が利用可能になります。
SV4PCは、クラウド間連携であるマルチクラウド環境を容易に実現する手法を提供します。クラウド上のSV4PCは、AWSとIBM Cloudといった異なるクラウド間、あるいは同じクラウド内のアベイラビリティーゾーン間であっても、データ移動・同期機能を提供できます。これは、災害発生後もすぐに別のクラウドまたは同じクラウド内の異なるアベイラビリティーゾーンでデータを使用できるメリット(データ可用性、データレジリエンス)を享受できるだけでなく、将来的なクラウドの乗り換えやオンプレミスへの回帰といったデータ移行戦略をデータに基づき柔軟に実行可能にします。
Spectrum Virtualizeのデータプール機能によるパフォーマンス・コスト最適化
Spectrum Virtualizeには、複数のストレージボリューム(異なる性能やタイプのストレージリソース)を束ねて使用するデータプール機能があります。SV4PCにも、クラウド側の用意するボリューム(クラウドストレージリソース)を束ねて使用する同様の機能があります。これは、パフォーマンスを要求するアプリケーションに対して、後から高速な区分(例えば、SSDベースのボリューム)のストレージ・ボリュームを追加可能にし、データアクセスパターンに関するデータ分析に基づき、アクセスの多い「ホットデータ」部分だけに高速なストレージを使えるようにするデータ階層化機能を利用することで、ストレージにかかるコストデータダウンを実現します。データコンサルタントとして、このデータプール機能は、データ量やアクセス頻度といった運用データに基づいてストレージリソースを効率的に利用し、パフォーマンスとコストのバランスを最適化するための重要な機能であると評価します。
データコンサルタントおよびデータアナリストの視点から、マルチクラウド環境におけるデータセキュリティ、特にゼロトラストモデル導入に伴うデータアクセス管理の課題、およびソブリンクラウドのような選択肢の意義について分析します。
マルチクラウド環境におけるデータセキュリティ、特にゼロトラストモデルの実現においては、データアクセス管理の変革が重要な課題となります。従来のセキュリティソリューションでは、データ資産へのアクセス保護の基盤としてIPアドレスに基づく制御が不可欠でした。データベースと通信するアプリケーション、ホストやサービスにアクセスするユーザー、そしてクラウド内で通信するサーバーなど、データへのアクセスはIPアドレスに基づいて許可または制限されてきました。しかし、企業がクラウドへ移行し、インフラやデータへのアクセスがより動的になりIPアドレスが頻繁に変更される環境では、このIPアドレスに依存した管理手法は維持することが非常に困難になり、運用が複雑化します。データコンサルタントとしては、データ資産へのセキュアなアクセス制御を維持するためには、IPアドレスだけでなく、ユーザーID、デバイスの状態、アクセス元のコンテキスト、取り扱うデータの感度といった多様な要素に基づいた、よりきめ細やかなアクセス制御設計が必要であると認識しています。
データパイプラインや分散データ処理ワークロードにおいて、システム間(マシン間)の通信セキュリティ確保はゼロトラスト環境の中核要素となります。データ収集、前処理、分析、そして結果のデプロイといった一連のデータ処理プロセスでは、多くのシステムが相互に通信します。チケットシステムへの依存といった旧来型のITILベースの手法は、今日の動的なクラウド環境におけるデータ処理ワークロードの迅速なデプロイやスケーリングに伴うセキュリティ要件(セキュアなマシン間通信設定、API連携における認証・認可など)に対応するにはスピードが遅く、手間がかかり、柔軟性に欠けます。セキュアかつ効率的なマシン間通信の確立は、データフロー全体のセキュリティと整合性を保つ上で不可欠です。
また、ユーザーやデータ処理を行うマシンの数が数百、数千と増加するにつれて、手動プロセスに依存した従来のアイデンティティおよびアクセス管理(認証、認可、プロビジョニング)はスピードが遅く、非効率となり、データへのセキュアなアクセスを大規模に管理する上で効果が上がりません。トークン、キーカード、パスワードといった従来のセキュリティ対策は、ITスタッフの直接的な介入を必要とし、これは特に大規模なデータ環境におけるアクセス管理や定期的なアクセス権限の棚卸しにおいて膨大なリソースと時間を消費する課題となります。自動化されたID・アクセス管理(IAM)ソリューションの導入は、データへのセキュアかつ効率的なアクセスを提供し、データ管理リソースの負担を軽減する上で不可欠です。
このようなデータセキュリティおよびガバナンスの要求が高まる中、ソブリンクラウドのようなクラウド形態が注目されています。例えば、「Fujitsu クラウドサービス powered by Oracle Alloy」のようなソブリンクラウドは、国内データセンターでのサービスの運用・管理を行うことから、運用の透明性を担保し、データとその保存場所を国内で制御できるという重要な特徴を持ちます。これにより、「データ主権」「運用主権」「法的主権」「セキュリティ主権」の4つの主権を確保できると謳われています。特に、内閣府の経済安全保障推進法における特定社会基盤役務の安定的な提供確保に関する制度や、重要情報を扱うシステムの要求策定ガイドなど、特定の法規制への対応能力は、データコンサルタント/アナリストが重要システムに蓄積された機密性の高いデータをクラウド化し、データに基づいた経営改革を推進する際に重要な考慮事項となります。
ソブリンクラウド上で、特定の主権要件を満たしつつ、生成AIを含む150以上のOracle Cloud Infrastructure (OCI) のサービスを利用できることは、データ分析、MLモデル開発、そして新しいデータ駆動型アプリケーション構築において大きなメリットとなります。重要システムに蓄積されたデータを、こうした特定の主権要件を満たしながらクラウド上で安全に活用できることは、データに基づいた意思決定の迅速化や、ビジネスプロセスの効率化に貢献するポテンシャルを持っています。
結論として、マルチクラウド環境におけるデータセキュリティ、特にゼロトラストの実現には、従来のIPベースのアクセス管理手法の限界を理解し、データ主権や法規制遵守といった要件を満たす基盤(ソブリンクラウドなど)を検討しつつ、ユーザーやマシンに対する自動化されたきめ細かいデータアクセス管理と、データ処理ワークロード間のセキュアな通信確保を組み合わせた多角的なアプローチが不可欠です。これにより、データに関わるリスクを低減し、安全な環境でデータ活用のポテンシャルを最大限に引き出すことが可能となります。