データコンサルタント視点から見るオープンソース活用とデータ駆動型IT変革
データコンサルタントの視点から見ると、オープンソースソフトウェア(OSS)の活用は、デジタル・トランスフォーメーション(DX)によってもたらされるイノベーションの増大、特に事業ライフサイクルの短縮化と、データに基づいた継続的かつ迅速なアプリケーション機能追加の要求に応える上で不可欠な要素となっています。社内外のアイデアとデータを集約するエコシステムにおいて、国際標準規格に基づくプロトコルやAPIを備えたOSSが、異なるシステム間のデータ共有を促進し、顧客エクスペリエンスデータ(利用状況、フィードバックなど)を継続的に改善するためのデータ連携基盤として広く活用されている点を強調できます。OSSの利点は、ソースコードが公開されていることによる将来のデータ要件への対応や脆弱性データへの迅速な対処、および特定のソフトウェアベンダーのデータ戦略に左右されないデータガバナンスと長期間利用の可能性というデータ視点から評価できます。また、オープンソースソフトウェアであるDockerコンテナおよびオーケストレーションツールKubernetesがデータデプロイメントとデータ管理のデファクトスタンダードとなっていることから、ハイブリッドクラウドを構成するITインフラにおいてはオープンソースを利活用できることが前提となっています。
Red Hatのテクノロジーは、このような幅広いデータ管理シナリオにおいて適用可能であり、特定のデータ管理課題を解決し、データ関連の成果をもたらしたRed Hatのお客様とテクノロジーの事例が存在します。Red Hatのテクノロジーは、本書で説明しているほとんどのデータ管理アプローチを他のテクノロジー環境と組み合わせて使用できる柔軟性を持っています。関連コンテンツについては、Red Hatのクラウドネイティブ・ソリューションとデータ管理トピックに関する詳細情報が提供されています。
先進的なITが直面するデータ関連課題:Red Hat ITの事例
データコンサルタントの視点から、先進的なIT組織、例えばRed Hat ITが直面したデータ関連課題を考察します。Red Hatは著しい成長率データを遂げ、堅牢なITインフラストラクチャ(データ処理・保管能力)をさらに大きく成長させなくてはならない状況が目前に迫っていました。ITチームにとって、Red Hatの急速な成長は、限られた予算データの中で、データ量の増加とビジネス要求の拡大に先手を打って対応していく必要があるというデータ戦略とコスト管理上の課題を意味していました。Kelly氏の率いるチームは、このデータ関連課題にどのように取り組んだのでしょうか。
Red Hat ITにおけるデータシステムの複雑性と変革の必要性
ITシステムは、たとえて言えば組織の中枢神経系統のように、情報の伝達、アクションの調整、および組織が機能するための数々のタスク実行におけるデータ処理を担います。複数のアプリケーションで構成されるこれらのシステムの規模、密度、複雑さは、データ処理パイプライン、システム構成、およびデータ連携の複雑化として、近年、ほとんどの組織で増加しています。Red Hatの状況も例外ではありませんでした。
Red Hatは2016年、ビジネスのさまざまな部分にサービスを提供する、それぞれに機能が異なる1,000近くの独立したアプリケーションとサービスを運用していたデータ(アプリケーション数データ)が示すように、その数の多さがデータ管理(データ連携、データストア、データガバナンス)の複雑性を増大させていました。これらのアプリケーションが、さまざまなチームにより、多様な技術スタック(データ処理技術、データストア技術)を使用して、多数のデータセンターで冗長化されて実行されていた現状は、データサイロの発生、データ一貫性の維持困難、およびデータ冗長性管理に関する課題を示唆しています。さらに、カスタムJavaやその他のアプリケーションから、SaaSとデータストアの統合、および複雑なワークフロープロセスに至るアプリケーションタイプの多様性は、異なるシステム間のデータ連携とデータ統合の複雑性を一層増大させていました。
これらのデータ管理上および運用上の課題により、Red Hat ITチームは次の3つの主要な目標に重点を置く必要がありました。これらの目標は、データコンサルタントの視点から見ると、データ管理の効率化、データ活用能力の向上、および運用コストデータの最適化に関連するものであり、以降の議論の中心となります。
データコンサルタント視点から見る進化するIT環境とデータ管理の複雑性
クラウドデータ移行戦略の第一歩としてのファイルサーバー移行
データコンサルタントとして、企業がクラウドへのデータ移行戦略を開始する上で、ファイルサーバーの移行は非常に効果的な第一歩であると位置づけています。ファイルサーバーは企業内で扱うデータ(ファイルデータ、ドキュメントデータ)の量が多い重要なシステムですが、そのデータ特性上、データベースサーバーなどが扱う構造化データと比較してデータ移行の難易度が低い傾向にあります。まずはファイルサーバーを起点とした段階的なクラウド移行を推奨することで、データ移行に伴うリスクを管理しつつ、クラウド環境でのデータ管理(運用効率、拡張性)、データ可用性(災害対策)に関するデータ活用メリットを体験できます。このプロセスを通じて、クラウド移行の概要と、Amazon Web Services (AWS) のような特定のクラウドサービスを活用したファイルサーバーの具体的な構成やそのデータ管理機能について解説します。ファイルサーバーの移行経験は、今後のシステム全体のクラウド化を進めるための重要なファーストステップとなることを目指します。
ITチームが直面するハイブリッド/マルチクラウドにおけるデータ管理の複雑性
現代のITチームは、既存のレガシーインフラ(データ保管場所、データ処理システム)に加え、マルチクラウド環境全体にわたる多様なデータサービスをデータに基づき監視および管理しなければならないという、データ管理上の複雑性が増大した状況に直面しています。料金がデータ使用量に基づいた従量課金モデルであるため、データ管理やリソース割り当てのミスがコストデータの大幅な増加を招くリスクも伴います。システムの数が増加するにつれて、データフローやシステム間の相互依存関係が高まり、潜在的な障害点(データ処理のボトルネック、データ連携エラーなど)が増えるため、適切に対応できない場合には以前よりも大規模なダウンタイム(データアクセス不能時間データ)が頻繁に発生するリスクがあります。これは、既存の運用ツールが提供するデータ可視性が限られているため、データに基づいた全体像把握や異常検知が困難であることに起因すると分析できます。
DevOpsチームが直面するデータ処理・デプロイメントの複雑性
DevOpsチームは、相互に依存する数百から数千ものマイクロサービス(それぞれが特定のデータ処理機能やデータ連携機能を持つ)を伴う、より複雑なアプリケーションの管理を担っています。継続的インテグレーションと継続的デリバリー(CI/CD)の手法では、コード変更がほぼリアルタイムで発生するため、データ処理ロジックやデータ連携に関するエラーが発生する可能性がこれまで以上に増えます。遅延(データ処理時間、応答時間といったパフォーマンスデータ)でさえもダウンタイム(データアクセス遅延)並みのダメージとなる世界において、データ処理パイプラインの信頼性確保と、迅速なエラー検知・修正が重大な課題です。データに基づいたパフォーマンス監視、エラーログ分析、および自動化されたデプロイメントとロールバック機能が不可欠となります。
セキュリティチームが直面する分散データ環境におけるデータ制御・可視性の課題
セキュリティチームは、もはや社内の完結した環境のデータ状況を管理するだけでは不十分です。攻撃対象が拡大する中、より多くの場所、アプリケーション、デバイス間に分散するデータ資産に対するデータ制御とデータ可視性の確保に努めなければなりません。これは、異なる環境に分散するデータ(ログデータ、利用状況データ、構成データ、セキュリティイベントデータなど)を効率的に収集・統合し、組織全体のデータガバナンスポリシーを適用し、潜在的な脅威をデータ分析によって検出することの難しさを示唆します。リアルタイムのデータ監視とデータ分析に基づく脅威インテリジェンスの活用が不可欠です。
Webサイト開発・監視・セキュリティ対策のデータ関連複雑化の変遷
Webサイト開発・監視・セキュリティ対策の複雑化をデータ関連の視点から見てみましょう。かつて情報提供を目的とする静的なWebサイトがオンプレミス環境にデプロイされていた時代は、データ収集・監視が比較的容易で、セキュリティリスクが管理可能なものでした。遅延やCPU使用率といった追跡が必要な運用データも簡単に監視でき、Web開発チームと運用チームの双方がサイトの健全性に関するデータを明確に理解していました。しかし、現代のWebサイトは、ユーザー行動データ、トランザクションデータ、コンテンツデータなど膨大な種類のデータを扱い、その開発、監視、セキュリティ対策には、多様なデータソースからのデータ収集・統合・分析、そしてデータに基づいた迅速な意思決定が不可欠となっています。これは、データ量の増大、データ種類の多様化、およびデータ活用の高度化が、ITシステムの運用とセキュリティに与える影響を示す典型的な例です。
データコンサルタント視点から見るIT基盤戦略の選択とクラウドデータ移行
データコンサルタントの視点から見ると、パブリッククラウドは、インフラストラクチャ部分をクラウドベンダーが管理することで、基盤となるデータ保管・処理インフラの冗長性やフェイルオーバー機能が提供され、ユーザーが特別な運用を施さなくとも「一定のデータ可用性」が確保されている傾向にあります。
運用中のサーバーのEOL(End of Life)やレンタルサーバーのサービス終了といった機会は、組織のデータ資産を保管・処理する「データ基盤戦略」、すなわちオンプレミス環境を継続するか、クラウドへの移行を選択するかを見直す重要な意思決定のタイミングとなります。オンプレミス環境を維持する場合、物理的なデータ保管設備およびサーバーの保守、将来的なデータ量増加に対応するための拡張性、および運用負担といったデータ管理上の考慮事項が必要です。
一方、クラウド移行を選択することには、データ関連の多くのメリットがあります。データ保管および処理リソースの柔軟な管理、データ処理能力のスケーラビリティ向上、運用管理の効率化、物理的なデータインフラ維持および災害対策の負担軽減、そしてBCP(事業継続性)におけるデータ復旧能力の強化がデータ視点から期待できます。しかし、移行に際しては、データセキュリティ(機密データの保護)、データ移行のリスク(データ損失、データ整合性)、および既存システムとのデータ連携互換性の問題といったデータ管理上の懸念も伴います。クラウド移行を成功させるためには、移行によって達成したいデータ関連の目的(例: データ分析能力向上、データ共有促進、コスト最適化など)をデータに基づき明確化し、各課題(セキュリティ、移行リスク、互換性)をデータに基づいたリスク管理計画によってクリアしていくことが鍵となります。企業毎のデータ保護要件、データ量、処理ニーズに応じた最適な選択肢を見極めることが求められます。
クラウドデータ移行戦略の第一歩としてのファイルサーバー移行
クラウドへのデータ移行戦略を開始する上で、ファイルサーバーの移行は非常に効果的な第一歩であると位置づけています。ファイルサーバーは企業内で扱うデータ(ファイルデータ、ドキュメントデータ)の量が多い重要なシステムですが、そのデータ特性上、データベースサーバーなどが扱う構造化データと比較してデータ移行の難易度が低い傾向にあります。まずはファイルサーバーを起点とした段階的なクラウド移行を推奨することで、データ移行に伴うリスクを管理しつつ、クラウド環境でのデータ管理(運用効率、拡張性)、データ可用性(災害対策)に関するデータ活用メリットを体験できます。
このプロセスを通じて、クラウド移行の概要と、Amazon Web Services (AWS) のような特定のクラウドサービスを活用したファイルサーバーの具体的な構成やそのデータ管理機能について解説しますします。ファイルサーバーの移行を通じて、クラウド環境におけるデータ管理、データ活用、およびBCPの側面におけるデータレジリエンス強化がどのように実現できるかを具体的に学び、今後のシステム全体のクラウド化を進めるための重要なファーストステップとなることを目指します。データコンサルタントとして、お客様のデータ基盤戦略の意思決定とクラウド移行計画策定をデータ分析に基づき支援します。
データコンサルタント視点から見るクラウド移行とデータ基盤戦略の意思決定
データコンサルタントの視点から見ると、クラウド移行は、単なるITインフラの変更に留まらず、データ管理、セキュリティ、コスト、および運用に関する複数の戦略的課題を伴います。クラウド移行に伴う主な課題として、データ管理の観点から以下の点が挙げられます。コスト削減目標の達成、分散するデータ資産に対する一貫したセキュリティポリシー適用、データガバナンスとコンプライアンス(規制遵守に関するデータ)への対応、クラウド環境とオンプレミス間のネットワーク遅延(データ転送速度への影響)、増大し続けるデータ量の管理、特定のクラウドベンダーとのトラブルリスク(ベンダーリスクデータ)、クラウドサービスに関する知見データ(スキル)の不足、およびデータ移行計画の不備といった課題は、クラウド導入を検討する組織がデータに基づき慎重に評価すべき要素です。
アプリケーションをパブリッククラウドに配置するか、オンプレミスのデータセンターに配置するかを決定する際は、データコンサルタントの視点から、システム構築に必要なデータ処理・保管リソースをいかに調達し、データインフラストラクチャ全体のデータ管理体制をいかに構築・維持するかの2点を主要な意思決定基準として考慮する必要があります。パブリッククラウドでは、サーバーやネットワークといったリソース(データ処理・伝送インフラ)をクラウドベンダーがデータ容量や性能に応じて柔軟に提供し、ユーザー企業は提供される多様なデータサービス(ストレージサービス、データベースサービス、データ分析サービスなど、限定的なデータ管理機能を含む場合がある)を利用する一方で、基盤となるインフラの物理的な保守やメンテナンスといった運用はクラウドベンダーの責任となります。オンプレミスでは、ユーザー企業が各種リソース(データ処理・保管設備)を自由に設計・調達できますが、それらの物理的な保守やメンテナンスといったデータインフラ管理を自社で行う必要があります。
オンプレミスとパブリッククラウドにおけるデータ管理上のメリット・デメリット比較
オンプレミスとパブリッククラウドのメリットとデメリットを、データ管理の観点から以下に整理します。
初期費用(コストデータ): オンプレミスのデータセンターでは、サーバー、ストレージ、ソフトウェアといったデータ保管・処理に必要な資産への先行投資(CapEx)が必要となり、電力供給や冷却設備、物理的なスペースといったデータインフラの初期コストデータが高額になる傾向があります。パブリッククラウドでは、設備をベンダーが所有・管理するため、ユーザー企業は初期費用(OpExが主体となる場合が多い)を抑えられる点をコストデータの観点から評価できます。
リソースのカスタマイズ性(データ処理・保管の柔軟性): オンプレミス環境では、各種アプリケーションやそれらを動かすためのデータ処理・保管リソースをユーザー企業が自由に導入・構成し、管理できるため、特定のデータ処理ニーズに応じたカスタマイズが容易である点を強調できます。全責任を自社で負う必要がある点はデータガバナンスの側面として重要です。パブリッククラウドでは、インフラが常にクラウドベンダーの管理下にあるため、リソースのカスタマイズ性はベンダーが提供するサービス範囲(データサービスの種類、インスタンスタイプ、設定オプションなど)に依存する傾向があります。
機密データ保管(データセキュリティとデータガバナンス): オンプレミス環境は外部とのネットワークを物理的または論理的に遮断できるため、銀行口座情報や事業秘密といった機密性の高いデータ資産は、厳格なデータセキュリティポリシーとデータガバナンス体制の下でオンプレミスに保管することが望ましい場合がある点を指摘します。パブリッククラウド事業者も堅牢なセキュリティ対策技術を定期的にアップグレードしているため堅牢なセキュリティ体制を築ける可能性はありますが、データが外部の事業者に保管されることによるリスクをデータガバナンスの観点から評価する必要があり、特定の機密性レベルのデータ保管には適さないと判断される場合もあります。
コンプライアンス(規制遵守データとデータガバナンス): 政府や業界の規制に準拠するためには、自社でデータやインフラを完全にコントロール可能なオンプレミスのデータセンターでないと、適切なデータ保管・管理(データ保持期間、データ形式、アクセスログ管理など)が難しい場合がある点をデータコンplianceの観点から述べられます。パブリッククラウドはサードパーティーのベンダーが関与している以上、特定の厳格なコンpliance要件(例: 特定国でのデータ保管義務、特定の監査基準への対応)を満たせない場合がある点を指摘し、コンpliance要件データに基づいた慎重な評価が必要であることを示唆します。
スケーラビリティ(データ処理能力の拡張性): オンプレミスでの拡張は、新しいサーバーや関連インフラの新規導入を意味し、これには費用がかかり、物理的なスペースの制限もあるため、データ量や処理要求の急激な増加に対するスケーリングに時間を要する点をデータ処理能力拡張の観点から説明できます。パブリッククラウドは、ベンダーが提供する管理ツールによる自動的なスケールアップまたはスケールダウン機能が、データ処理要求の急激な増加にデータに基づき対処しやすい点を強調でき、データ量やアクセス頻度の変動が大きいワークロードに適しています。
可用性(データ可用性): データセンターの可用性には、ネットワークや電力供給、ハードウェアの冗長性などさまざまな要因が絡み合っているため、オンプレミスの方が優れているとは一概には言えない点をデータ可用性の観点から述べられます。パブリッククラウド事業者は、広範囲にわたるデータセンターとネットワークインフラにより、地理的な冗長性を提供し、高いデータ可用性を実現している場合がある点を付け加えることができます。
データコンサルタントとして、お客様のビジネス要件、データ保護・ガバナンス要件、コンpliance義務、およびコストデータを総合的に分析し、データに基づいた最適なIT基盤戦略(オンプレミス、パブリッククラウド、またはハイブリッドクラウド)の意思決定を支援します。
データコンサルタント視点から見る進化するIT環境におけるデータ管理と迅速性・安定性のバランス
データコンサルタントの視点から見ると、現在のITチームは、新しいアプリケーションのデータデプロイや、他のアプリケーションへのデータアクセス共有といった業務を、以前より数多くの方法で行えるようになっています。プロダクションシステムのITインフラストラクチャも、データレジリエンス(回復力)を高めつつ、コストデータも削減されている状況が見られます。しかし、このような技術的・組織的な変化に伴う社内の文化的な課題、特に新しいテクノロジーの導入に対する「懐疑的な意見」は、データに基づいた慎重な評価や潜在的なリスクの分析を促す上で極めて重要です。データ駆動型の意思決定プロセスにおいては、多様な視点からのインプットが不可欠であることを認識すべきです。
Red Hat ITの変革に見るデータ駆動型迅速化と安定性のバランス
Red Hat ITの変革事例は、先進的なIT課題(データ量の増大、システム複雑性など)への対処において、データ駆動型の迅速性とシステム安定性(データ可用性)のバランスを取ることの重要性を示す好事例です。新しい、より生産的なテクノロジー(データ処理技術、データストア技術など)の導入を迅速に進めたい開発チームと、システムの信頼性とデータ可用性(安定性データ)を確保する必要がある運用チームとの間に生じるデータ運用上の「対立」は、大規模組織では特に顕著です。この対立を組織全体で共有し、データに基づいた意思決定プロセスを通じて解決していくことが求められます。
DevOpsへの移行は、データ運用上の対立を組織内のさまざまなグループで共有するようになった点では進歩をもたらしました。しかし、DevOpsの実践方法が組織ごとに異なる現状は、データガバナンスやデータ連携プロセスの一貫性に関する課題を生み出す可能性があります。以下の圧力によってテクノロジーの選択肢が多様化していることが、この課題をさらに深刻にしています。
マルチクラウド/ハイブリッドクラウド戦略: 最近の調査データによると、大多数のエンタープライズ(92%)がマルチクラウド戦略を推進しており、多くの組織が事実上ハイブリッドクラウドになっています。ただし、これは単に各グループがそれぞれ別のクラウドプロバイダーを利用しているだけで、データが異なるクラウドプロバイダーに分散しているデータ配置の問題とデータ統合や一元管理に関する課題を生み出す可能性があります。
プログラミング言語の多様化: 使用されるプログラミング言語の種類が一般でもエンタープライズでも爆発的に増え続けている現状は、特定のデータ処理要件やデータ分析タスクに最適な言語を選択できる利点がある一方で、異なる言語で記述されたアプリケーション間のデータ連携やデータ統合を複雑化させるデータ管理上の課題として現れます。大半のエンタープライズでは依然としてJavaとJavascriptが有力であるというデータや、用途ごとにそれを得意とする他の言語の使用が増えているというデータ(RedMonkの2021年6月の公開データ調査を参照)は、この多様化の現状を示すものです。
コンテナ化されたインフラストラクチャとOpenStack®への移行: コンテナ化されたインフラストラクチャとOpenStackへの移行は、ベアメタルサーバーを使用する組織が減少していることを意味し、データデプロイメントの標準化とデータ処理基盤の抽象化という観点からデータ管理の効率化に貢献します。
これらのデータ運用上の圧力のバランスをどのように取るかが、効果的なIT戦略の鍵となります。これは、特定の技術や手法に固執するのではなく、組織のデータ戦略、ビジネス要件、および運用能力データに基づいて、最適なデータ管理、データ連携、データデプロイメント、およびセキュリティのアプローチをデータ駆動で選択・適用する必要があることを示唆しています。
効果的なハイブリッドクラウドアプリケーション環境とデータ管理
「アプリケーション環境」という用語は、データコンサルタントの視点から見ると、ある組織のアプリケーション提供および開発を支える一連の機能セット、すなわちデータ生成、データ処理、データ保管、データ連携、およびデータ活用を支える包括的な機能セットを指すために使用されます。このような広い捉え方は意図的なものであり、先進的なIT課題の包括的な性質の基礎になっています。具体的には、レガシーアプリケーション(過去のデータモデルや処理ロジックを持つシステム)と新しいアプリケーション(現代のデータ要件に対応したシステム)がデータ連携する必要がある点、新しいテクノロジーがシステムの信頼性(データ可用性)を損なうことなくデータ活用の価値を付加する必要がある点、そしてITシステムがこれまで以上に多様な場所(オンプレミス、複数のクラウド、エッジ)に存在し、データが分散している現状は、効果的なハイブリッドクラウドアプリケーション環境の構築と進化におけるデータ管理の複雑性を高めています。データ統合、データガバナンス、データセキュリティ、および運用データの可視性が、このような分散データ環境で成功するための鍵となります。
データコンサルタント視点から見る競争軸のシフトとデータ駆動型イノベーションの時代
データコンサルタントの視点から見ると、現在の市場競争は、コストリーダーシップや製品・サービスの個別機能といった静的な要素から、デジタル技術を活用した「イノベーション」へとその軸足を大きくシフトさせています。これは、企業が自らのデータ資産をどのように収集、分析、活用し、新たな価値を創造するかという、データ駆動型の競争が本格的に展開していることを意味します。事業戦略はテクノロジー、特にデータ活用の巧拙に依存するフェーズに入り、テクノロジー活用能力がビジネスの成果を直接左右するようになりました。「第3のプラットフォーム」(クラウド、ビッグデータ、モビリティ、ソーシャル技術の組み合わせ)が新たな段階を迎えていると見ているように、この段階は、「受け身の変革」(既存プロセスのデジタル化や効率化)から「攻めの変革」(データに基づいた新しいビジネスモデルや顧客体験の創出)へ、「実証実験/POC」(限定的なデータ活用試行)から「本格的導入」(大規模データ活用基盤の構築と運用)へのシフトがデータ活用において加速するフェーズであると位置づけられます。
国内企業のDX推進におけるデータ関連課題と機会損失
一方で、国内企業においては、複雑化しブラックボックス化したミッションクリティカルなシステム(過去のデータ構造や処理ロジックを持つレガシーシステム)の刷新と、既存業務プロセスのデータに基づいた見直しの遅れが、DX推進の足枷となっている現状がデータコンサルタントとして観測されます。これは、システム内に閉じ込められたデータ資産へのアクセス困難性や、データに基づいた効率的な業務プロセスの設計・実行能力の不足が、グローバルなイノベーション増大の波に乗り遅れる大きな機会損失(ビジネス機会データ喪失)につながる可能性があることを示唆しています。
世界的にイノベーションが増大する中で、国内企業が成長し、利益を確保し続けるためには、従来型のITインフラを、経済性(コストデータ最適化)、迅速性(データ処理速度、デプロイメント速度)、柔軟性(データ量、データ種類、データ処理要件への対応能力)の高いものに変えていく必要があります。そのためには、国内企業自身がデータインフラストラクチャの刷新にデータ駆動で取り組むことはもちろん、ITサプライヤー(CSP: Cloud Service Provider、MSP: Managed Service Provider、System Integratorなど)も、ITバイヤー(国内企業)におけるDXを加速させるべく、データ保護、データ管理、データ分析、およびデータ連携に関する専門知識とソリューションを提供して支援することが求められています。
イノベーション増大フェーズにおけるデータ活用の深化とハイブリッドクラウドの役割
イノベーション増大フェーズでは、「受け身の変革」から「攻めの変革」へ、POCから本格導入へとシフトが加速する中で、活用されるデータが「非ミッションクリティカル」なデータから、「ミッションクリティカル」なデータ(事業継続に不可欠なトランザクションデータ、顧客データなど、データ損失やダウンタイムが許容されない高いデータ可用性が求められるデータ)へと広がる点を指摘できます。これは、データ保護、データ可用性、データレジリエンス(回復力)、およびリアルタイムデータ処理の重要性が劇的に増大することを意味します。
そして多くの企業が新たな価値を創造するためにエコシステムを形成し、大規模なデータ共有とその収益化(データマネタイズ)を加速しています。エコシステムは、マイクロサービス化された機能(特定のデータ処理機能を持つモジュール)をAPI(Application Programming Interface)で公開しデータ連携することによって、より迅速かつ柔軟にサービスを提供できるようになり、その機能が強化され拡大します。エコシステムを通して収益を得るということは、エコシステムを形成する企業間における相互依存(データ連携の信頼性、データ共有の規約、データガバナンスなど)が極めて高くなることを意味し、関連するデータガバナンスとリスク管理が重要になります。ハイブリッドクラウド環境は、このような分散したエコシステム環境において、異なる場所に配置されたデータ資産の連携や、データ処理の柔軟なスケーリングを可能にするデータ基盤として重要な役割を担います。ハイブリッドクラウドでは、経済性、迅速性、柔軟性を実現するために、データガバナンスと全体最適化(データ管理、データ連携、データセキュリティ、コスト管理など、ITインフラ全体にわたるデータ駆動型最適化)を志向すべきであることは言うまでもありません。これは、異なる環境に分散するデータ資産の一元管理、データフローの可視化、データセキュリティポリシーの一貫性適用、およびデータに基づいたコスト管理が不可欠であることを示唆します。
データコンサルタント視点から見るエコシステム時代におけるハイブリッドクラウドITインフラのデータ関連要件
イノベーションの増大に伴うエコシステムにおける相互依存の高まりは、企業が運用するハイブリッドクラウド環境を構成するITインフラ(データ基盤)が満たすべきデータ関連の要件に大きな変化をもたらしています。エコシステム内のデータ連携、データ共有、および共同データ処理が増加することで、個々の企業のデータ基盤の健全性がエコシステム全体のデータフローとビジネス継続性に直接影響するようになるからです。データコンサルタントの視点から、IDCがハイブリッドクラウドを構成するITインフラが満たすべき重要な要件として挙げる点について、データ関連の観点から考察します。
1. 強固なセキュリティ(データ保護とリスク管理)
活用されるデータが「非ミッションクリティカル」なデータから「ミッションクリティカル」なデータ(事業継続に不可欠なデータ資産、例えば顧客データ、トランザクションデータなど、データ損失やダウンタイムが許容されないもの)へと広がる中で、セキュリティリスクへの対処が不十分であると、エコシステムを通して収益を得る(DXを推進する)道が閉ざされ、社会的信用をも損なうデータリスクがある点を強調できます。そのような事態に陥らないためにも、ハイブリッドクラウドを構成するITインフラはデータ資産に対する強固なセキュリティを実現している必要があります。サーバー関連のデータセキュリティ要件として、マルウェア侵入の防止、サーバー乗っ取り防止、人為的ミスによる事故(誤操作によるデータ削除や構成ミスなど)の防止、データ漏洩の防止、メモリダンプによる情報漏洩の防止といったリスクデータに対する対策を、経済性(セキュリティ対策導入・運用にかかるコストデータの最適化)かつ運用容易性(セキュリティ運用の運用負担データ低減)の高い方法で実装することの重要性をデータ視点から述べられます。これは、データ保護、データガバナンス、セキュリティリスク管理の観点から不可欠です。
2. ITインフラの信頼性/データ可用性(BCPとデータレジリエンス)
エコシステムにおける相互依存が高まると、一企業におけるシステムダウン(データアクセス不能、データ処理停止)によって発生するビジネス上の機会損失データがエコシステム全体に波及するリスクが増大します。これは、システムダウンによって発生するビジネス上の機会損失が、エコシステムの形成を想定していない従来型のビジネスよりも拡大することを意味し、データレジリエンス(回復力)の重要性が増大していることを示唆します。ITインフラの信頼性/データ可用性データが低い場合、エコシステム内で提供しているサービスが停止し、同様の顧客エクスペリエンスデータを提供する他のエコシステムに収益機会を奪われたり、代替する機能やサービスを提供する企業に収益機会を奪われエコシステムから淘汰されたりするリスクデータがあります。エコシステム全体で発生し得る機会損失データを考慮すると、ITインフラが満たすべき信頼性/データ可用性レベルは、BCP(事業継続計画)の観点から従来よりも高まっています。これは、データに基づいたRTO(目標復旧時間)やRPO(目標復旧時点)といった目標設定と、それを達成できるデータ保護およびデータ復旧機能を備えたITインフラ構築が必要であることを意味します。
3. シンプルな運用(運用効率データと迅速性)
エコシステムにおいては、ITリソースに対する処理需要(データ処理要求)を個々の企業が完全にコントロールすることが難しい側面がある点をデータコンサルタントの視点から説明できます。処理需要の増減に柔軟に対処するためにパブリッククラウドサービス(データ処理リソースのスケーラビリティ)を活用することも1つの選択肢ですが、信頼性やデータ可用性、強固なデータセキュリティを確保しつつ、処理需要の増減に対処しようとすると、コスト面での負担が大きくなるケースもある点をコストデータと運用管理の観点から指摘できます。また、性能、ネットワーク管理や運用管理の複雑化などといった運用上の課題に直面することもあり、特定のデータ処理要件、データガバナンス要件など運用データに基づいた判断から、オンプレミスでITインフラを準備する方が適しているケースもあります。いずれにせよハイブリッドクラウドを構成するITインフラは、運用を簡素化してIT部門の負荷(運用工数データ)を軽減することで、データに基づいた継続的かつ迅速な機能追加(データデプロイメント、データ処理ロジックの変更)を短いサイクルで実現できるデータ駆動型の運用を支援するものでなければならない点を強調します。これは、ビジネスの変化に迅速に対応し、データ活用の機会を最大限に活かすために不可欠な要件です。
データコンサルタント視点から見るハイブリッド・マルチクラウド時代におけるデータ管理とオンプレミスクラウドの台頭
データコンサルタントの視点から見ると、複数のクラウドプロバイダーを使用するハイブリッド・マルチクラウド環境は、アプリケーション開発において各クラウド固有のデータ関連機能(データ分析サービス、マネージドデータベースサービスなど)を取り込める利点がある一方で、クラウド事業者のサービス障害や都合(サービス仕様変更、料金体系変更などデータ関連サービスへの影響)にデータ運用が左右されるリスクを伴います。
アプリケーションが各クラウド専用に構築されるとしても、それらが扱うデータは、お客様の現実業務(ビジネスプロセスデータ)を反映する限り、共通のデータ設計(データモデル、データ構造)となる部分が多くなることを指摘できます。これは、基盤となるデータがビジネスロジックに強く結びついているためであり、異なる環境間でのデータ互換性やデータ移行の重要性を示唆します。
一度動き始めたシステム(データ処理システム、データ提供システム)を停止することが、そこから利益(収益データ)を得ている組織にとっては死活問題となります。単一のサービス障害やクラウド事業者のサービス終了といったイベントによって、組織のデータ可用性が損なわれ、ビジネス継続性(BCP)が危うくなるリスクをデータ視点から認識すべきです。
オンプレミスでシステムを運用している場合でも、日本で業務を行う上では災害対策(データ損失リスク、データ可用性確保)の考慮は避けては通れず、遠隔地に事業所を持つ企業であるかどうかにかかわらず、昨今はデータ保管場所の候補としてクラウドストレージ(バックアップデータの保管先、DRサイト用データ保管場所など)が必ず検討される点をデータコンサルタントの知見として述べることでしょう。
ハイブリッド・マルチクラウドにおけるデータ移動・同期の重要性とその実現手段
上記のような課題やニーズを踏まえ、オンプレミスとクラウドの間、および異なるクラウド間でのデータ移動(データ移行)、データ同期(データレプリケーション)、およびデータ連携が、ハイブリッド・マルチクラウド環境を実装・管理し、データ可用性や運用効率を維持する上で極めて重要になってきます。これをデータに基づきシームレスに実現するためのソリューションの必要性が高まっています。
データ移動・同期を実現するソリューションの一つに、IBM Spectrum Storageのようなストレージソフトウェア製品があります。この製品は、オンプレミスと既に複数のクラウドで稼働しており、同じデータ管理機能と使い勝手を実現している点は、異なる環境間でのデータ管理の一貫性を高め、データ管理の複雑性を軽減する上で有効です。
「オンプレミスクラウド」の概念とデータ保護・管理のニーズ
クラウドサービスのメリット(データ保管・処理リソースの柔軟性、スケーラビリティ、運用効率)をオンプレミスインフラでも実現しようとする「オンプレミスクラウド」という概念が登場しています。クラウドベンダーがそのための製品やサービスの開発を進めている現状は、データ保護、データ管理、運用効率といった側面でクラウドの利点をオンプレミスにも拡張したいというニーズがデータに基づき存在することを示唆します。
高まる「オンプレミスクラウド」への需要の背景には、IaaSをはじめとしたクラウドサービスへのワークロード(アプリケーション)移行が、データ保護、コスト、技術的な観点から全てのユーザー企業やアプリケーションベンダーにとって最善の選択肢ではないという現実があります。機密性が極めて高いアプリケーション(厳格なデータプライバシー、データ主権要件)や、移行コストが高価になるアプリケーションは、クラウドサービスへの移行がデータ保護の観点から難しくなる傾向がある点をデータコンサルタントは認識しています。こうしたニーズに応える手段として、ユーザー企業のオンプレミスインフラをプライベートクラウド(リソース専有型クラウド)化する「オンプレミス型プライベートクラウド」(オンプレミスクラウド)への需要がデータに基づき上昇しています。システムインテグレーターのWorld Wide Technology (WWT) でプライベートおよびハイブリッドクラウドソリューション担当のディレクターを務めるクリス・ワイス氏が指摘するように、オンプレミスクラウドの実現に必要な技術の成熟と、オンプレミスクラウドを求めるユーザー企業の需要が急激に上昇している現状は、データに基づいた市場の動きを示しています。「クラウドに失望した人」の受け皿となる可能性は、クラウド利用におけるデータ管理、コスト、セキュリティ、運用といった側面で課題を感じた企業が、オンプレミス環境でのデータ管理のメリットとクラウドの利点を組み合わせることを模索している現状をデータ視点から捉えたものです。これは、データ保護、データガバナンス、そして運用効率といったデータ関連のニーズに合致する柔軟なデータ基盤戦略を求める企業の動きを示唆しています。
データコンサルタント視点から見るハイブリッド・マルチクラウド時代におけるデータ管理と運用の進化
データコンサルタントとして、ボリューム利用量やパフォーマンス統計データといった運用データを継続的に監視し、設定された監視ポリシーデータに基づいたアラートデータや定期レポートを自動送信する機能が、データに基づいたITリソースの費用見直しに貢献する点を評価しています。運用データ分析は、コストデータ管理とIT効率化に不可欠なツールです。
ハイブリッド・マルチクラウドが必要となるデータ駆動型背景
ハイブリッド・マルチクラウド環境が必要となる背景には、データ駆動型のビジネスおよび技術動向が深く関連しています。「所有より利用」という傾向は、昨今の労働力データ不足の影響もあって一般的になりつつあり、IT資産の物理的な管理や保守にかかる運用工数データやコストデータを削減し、サービス利用による柔軟なデータ利用を目指す組織が増えています。また、Webビジネスの進展やそれを支える技術の発展により、自社で管理するサーバーやストレージではなく、クラウド上でのデータ展開を前提としたデータ処理・分析技術が多く登場し、クラウド利用のハードルがデータに基づいて徐々に低くなっています。メールやスケジュール管理といった日常業務で利用するアプリケーションをクラウドで利用するようになったことも、一般ユーザーや経営層がクラウドをデータ活用の選択肢として意識する一助となっています。
オンプレミスからクラウドへのデータ移行の進展と課題
一度クラウドを使用し始めると、そのデータアクセス容易性やスケーラビリティといった便利さ、そしてシステム停止の少ない状況(データ可用性、データレジリエンス)を体験し、「我社の既存システムもクラウドにデータ乗せ換えられないか?」「クラウド上で稼働しているデータサービスに置き換えられないか?」と考えるようになるのは、データに基づいた合理的な判断と言えるでしょう。
しかし、システムを管理・運営している立場から見ると、夜間のハードウェアトラブル対応から解放される利点(運用負担データ軽減)を感じつつも、期待される業務パフォーマンス(データ処理速度、応答時間)を維持することや、既存に作成された膨大なシステム(レガシーシステムデータ)や複雑なデータ構造をクラウド用に書き換えることは、大きなコストデータと技術的な不安を伴います。これは、レガシーデータ構造や処理ロジックの複雑性、および大規模なデータ移行とアプリケーション改修にかかるコストデータを指します。
そこで必要になってくるのが、全てをクラウドへ移行するのではなく、用途に応じてオンプレミスとクラウドの両環境を併用する「ハイブリッド・マルチクラウド」という運用スタイルです。これは、特定のデータ処理や保管をオンプレミスで行い、別のデータ処理やデータ分析、あるいは新しいアプリケーションのデータデプロイをクラウドで行うなど、データ管理アプローチを使い分けるものです。
新しいアプリケーションを一から作成する場合、クラウド上の用意された技術(データ分析サービス、AI/MLサービス、マネージドデータベースなどデータ関連技術)は魅力的であり、しかも初期費用の安価なもの(CapExが低くOpExが主体)が多く登場してきています。また、それを用いたビジネスを今すぐ始めることによる利益や成長は、企業にとって無視できないものになっており、データ駆動型ビジネスの迅速な立ち上げを支援する要因となっています。しかし、クラウド業者自体もサービス向上や新技術の取り込みの競争をしている結果、ある日、気が付くと、複数のクラウドを使用していた(マルチクラウド化していた)となる場合もあります。クラウド事業者は収益性によって、提供していたデータ関連サービスを終了する場合があります。結果、ユーザーは別のクラウドにデータやアプリケーションを乗り換えることが必要になるリスク(ベンダーリスクデータ、データ移行リスク)がある点も考慮が必要です。
既に稼働している既存システムをクラウドに移行する場合、レガシーシステムデータの構造や処理ロジックが複雑なため、クラウド用に書き直しできるユーザーは少数であり、大半はクラウドに移行するとしても何とかコストをかけないで実現できないかと指示されることでしょう。これは、データ移行戦略において、フルリライト以外の選択肢(リフト&シフト、リプラットフォームなど)を検討し、データ移行にかかるコストデータを最適化する必要性を示唆しています。データコンサルタントとして、既存システムやデータ資産の特性をデータ分析に基づき評価し、最適なデータ移行戦略とコスト試算を支援します。ハイブリッド・マルチクラウド環境における効果的なデータ管理と運用は、データに基づいた意思決定と継続的な最適化によって実現されます。
データコンサルタント視点から見るハイブリッド・マルチクラウド環境におけるデータ管理と運用効率化
データコンサルタントの視点から見ると、クラウド事業者が提供する基本的なデータサービス(ストレージ、コンピュートなど)に加えて、オンプレミス環境や異なるクラウド間でのシームレスなデータ連携やデータコピーなど、特定のデータ管理ニーズを拡張するソリューションの存在が重要性を増しています。クラウド側のサービスだけでは、ハイブリッド・マルチクラウド環境におけるデータ管理の複雑性に十分対応できない場合があるからです。
統一されたデータ管理UIによる運用効率データ向上
Spectrum Virtualizeのようなストレージソフトウェア製品が、オンプレミス環境とクラウド環境で統一されたデータ管理UI(直感的でわかりやすい日本語管理画面)を提供することで、マルチクラウド環境におけるストレージ管理の簡便化と運用効率データ向上を実現する点は注目に値します。統一されたUIは、異なる環境間でのデータ管理における学習コストデータや運用負担データ低減に寄与します。IBM FlashSystemも同じUIで統一されている点は、ストレージインフラストラクチャ全体にわたるデータ管理の一貫性を示唆し、運用上の複雑性を軽減します。
安全かつ簡便なハイブリッド・マルチクラウド運用メカニズムの重要性
ハイブリッド・マルチクラウド環境における安全かつ簡便な運用メカニズムの重要性は言うまでもありません。クラウド事業者のサービスごとに異なる運用方法(データ管理ツール、API、構成方法など)が、運用の煩雑化を招き、人為ミスによるデータ損失や構成エラーといったリスクを高める点をデータコンサルタントとして懸念しています。また、特定のスキルを持つ限られた人材への依存と対応の集中は、運用負担データ増加と運用体制の脆弱化に繋がるリスクデータであると分析できます。Spectrum Virtualize for Public Cloudが、異なるクラウド環境間でのストレージ管理方法を統一できる点が、これらのリスクをデータ管理の観点から軽減することを示唆しています。初めての使用の場合でも、日本語で直感的なUIはデータ管理の学習コストを低いものに変えます。
オンプレミスとクラウド間のデータコピー運用管理監視:IBM Storage Insights
オンプレミスからクラウドへ、および異なるクラウド間でのデータコピー(データ移行、データ同期)運用の管理監視は、ハイブリッド・マルチクラウド環境におけるデータレジリエンスと運用効率確保のために重要です。IBM Spectrum StorageファミリーのIBM Storage Insightsのような製品が、この領域を支援するSaaSベースのソリューションとして提供されています。
IBM Storage Insightsは、ストレージの性能データ、容量データ、および障害データといった運用データに特化したSaaSサービスです。IBM製だけでなく他メーカーのブロックストレージ、ファイルストレージ、オブジェクトストレージといった多様なデータ保管インフラからの稼働情報を収集、蓄積(2年間)、モニタリング、レポーティングできる点が、ハイブリッド・マルチクラウド環境におけるストレージ運用データの統合的な可視化と分析を可能にします。データを収集するための仮想マシンの準備と専用ソフトウェアの導入は、データ収集パイプラインの一部であることを示唆しています。
蓄積された運用データをAIで管理・分析し、その結果からデータに基づいたアドバイスをユーザーに通知する機能は、運用データ分析による問題の早期発見、パフォーマンス最適化、容量計画などを支援し、データに基づいた運用意思決定を促進します。これは、運用データ分析におけるAI/ML活用の有効な例です。
IBM Storage Insightsは無償版も提供しており、ストレージ機器の適切な保守契約を前提に簡便なサポート依頼が可能です。SaaSに蓄積された統計情報(運用データ)を保守サポートの参考情報としてIBMが参照できる仕組みは、データ共有によるサポート効率向上と、顧客の運用工数データ削減に寄与します。無償版におけるデータ参照期間と種類の制限は、データ可視性と分析範囲の制限として理解すべきですが、無償版であっても2年間のデータが保管され、後日、有償版に切り替えると過去データも確認可能となる点は、データ保持期間とデータアクセス権限に関する違いとして重要です。
ストレージヘルスチェックツールとしてのIBM Storage Insights
IBM Storage Insightsは、Spectrum Virtualize for Public Cloudを含むハイブリッド・マルチクラウド環境におけるストレージインフラストラクチャの「ヘルスチェックツール」として機能します。これは、ストレージの健全性、パフォーマンス、容量といった運用データを継続的に監視・分析することで、潜在的な問題をデータに基づき早期に発見し、より安全で確実な運用を実現するためのツールとしてデータコンサルタントは評価します。