検索
ホーム ITインフラ(8)

ITインフラ(8)

1. バージョン管理とCI/CDの基盤整備

ソフトウェア開発におけるバージョン管理は、コードの変更履歴を一元管理し、チーム間での効率的なコラボレーションを実現するための基盤です。代表的なツールである「Git」は、ローカル環境でもリポジトリを作成できるため、分散型開発に適しています。さらに、「GitHub」などのクラウドベースのサービスを活用することで、CI/CDとの統合が容易になり、自動化された開発・リリースプロセスの構築を支援します。

2. テスト自動化ツール:品質保証と開発スピードの両立
品質保証と開発スピードの両立は、CI/CD戦略の中核に位置づけられる課題です。信頼性の高いテスト自動化ツールは、CDツールと連携し、変更が加えられたコードに対して即座に自動テストを実行します。バグが検出された際には、バグ管理ツールとの連携により即座に対応可能なフローを構築します。

ツール選定においては、単なるテスト自動化の可否ではなく、「どこまで自動化できるか」「どの範囲をカバーできるか」が鍵となります。手動に頼らざるを得ないテスト範囲が広いと、バグの見逃しやリリース遅延のリスクが増大します。

特に注目すべきツールとして「Eggplant」が挙げられます。AIを活用した探索的テストやモデルベーステストにより、複雑な環境下でも幅広いテストプロセスの自動化が可能で、E2E(エンド・ツー・エンド)テストやユーザビリティテストにまで対応しています。

3. バグ管理ツール:情報の即時集約と開発フローの加速
自動テストによって検出されたバグは、即座に集約・可視化される必要があります。これを担うのがバグ管理ツールです。テスト結果の起票から、バージョン管理ツールとの連携による改修状況の追跡まで、開発者とQA担当者間のリアルタイムな情報共有を支援し、開発フロー全体の加速を実現します。

「JIRA Software」は代表的なツールであり、バグだけでなく、プロジェクト全体の課題管理、外部ツールとの高度な統合など、アジャイル開発において不可欠なプラットフォームとなっています。

4. テスト自動化がCI/CDに与える影響
CI/CDの成功は、テストプロセスの自動化レベルに大きく依存しています。継続的な開発とリリースのサイクルを高速かつ安定的に回すためには、単なるツール導入ではなく、テストのカバレッジ、検出精度、修正までのスピードを含めた全体最適化が求められます。

テスト自動化は単なる「効率化手段」ではなく、ビジネスにおけるリスクマネジメントであり、ユーザー体験の質を左右する重要な施策です。

5. APM(アプリケーションパフォーマンス管理)の自動化によるDX推進
現在、多くの企業がCI/CDの導入によりアプリケーションの迅速な提供を目指しています。同時に、DockerやKubernetesといったクラウドネイティブ技術の普及により、アプリケーションの構成やインフラは極めて動的かつ複雑になっています。

このような環境では、従来の手動ベースのパフォーマンス監視では限界があり、IT人材の負荷やリスクを増加させる要因になります。そこで注目されるのが、APMの自動化です。

パフォーマンス管理の自動化は、以下のような成果をもたらします:

問題検出から対応までの時間短縮(MTTRの削減)

アプリケーションの可用性とユーザー体験の安定化

ITコストの最適化とリソースの戦略的配分

CI/CDの真価を発揮するには、開発・テスト・運用の各段階での「自動化の連携」が不可欠です。APMの自動化は、その最後のピースとして、アジャイル開発とビジネス成果の結節点となります。

ITインフラ戦略を検討する際に最も重要視する要素

ROI や総所有コスト (TCO) などの価格の詳細
ROIやソリューションの長期的なメリットに 関する不確実性
SBOM (Software Bill of Materials)
カスタマイズや拡張性
クラウド型セキュリティソリューション (例:ゼロトラストネットワークアクセス)
コストの削減
コストの増加
コストパフォーマンス
コスト削減が見込めるから
コンテンツよりも、知識豊富な担当者やエンジニアと直接会話して、リアルタイムで質問に答え てもらいたい
コンプライアンスまたは監査関連の課題
サポートとメンテナンス
システムダウンに起因するデータ損失
スケーラビリティ (拡張性)
スケーラビリティの不足
セールス/マーケティング
セキュリティ強化
ソフトウェアに起因するシステムダウン
ソリューションの機能と利点の完全な概要
データのプライバシーとセキュリティ
データ解析に基づくリスク低減
テレワークなどのニューノーマルな働き方を狙う攻撃
ネットワーク
ネットワークオペレーション
パーソナライゼーションの強化
ハードウェア障害によるシステムダウン
パフォーマンスの低下
パフォーマンス向上
ビジネスメール詐欺による金銭被害
ビジネス上の意思決定者からの賛同
ビジネス戦略と目標の不一致
ヘルプデスク/サービスデスク
ユーザーの使い勝手
リスク管理/コンプライアンス
意思決定のサポート
意思決定のための適切なデータ分析の欠如
意思決定者/スタッフの離職
運用の簡便さ
遠隔操作
可用性の低さ
解決策を評価するためにさらに時間が必要
開発・運用
環境への適応性(エコフレンドリー)
企業のポリシーとの不一致
既存のインフラストラクチャとの統合の課 題
技術関係者からの承認
技術要件が変更された場合
技術要件と購入前の重要な考慮事項
競合製品との比較、 自社製品の違いを強調
業務レベルの低下
業務効率の向上
高品質なコンテンツの生成
災害および停電等によるシステムダウン
使いやすさ、UI
自動化によるジョブロス
実際の被害以上の風評被害を受けた
社内の専門知識の不足
修正プログラムの公開前を狙う攻撃 (ゼロデイ攻撃)
従業員のリモートワークエクスペリエンスを向上させたいから
情報セキュリティ
情報の信頼性・品質の不確実性
新しいビジネスチャンスの発掘
人的ミス等その他の要因によるシステムダウン
政策と規制のハードル
精度と品質
製品コミュニティとエコシステム
製品に関わる法規制への対応
製品の機能停止 情報漏えい
製品の誤操作誘導
組織への適合性(展開速度やパートナーシップアプローチなどの要素を含む)
他のクラウドサービスとの互換性
他者への攻撃の踏み台になった
他要因によるデータ損失
多様性と創造性の向上
遅延の解消や接続の安定性向上を期待しているから
展開計画と要件
導入におけるコストの増加
導入事例、自分たちに似た企業が製品をどのように使用しているか
導入難易度 サポート
犯罪のビジネス化 (アンダーグラウンドサービス)
被害を受けた後で適切な対策を行ったものの製品が売れなくなった
評価すべきテクノロジーソリューションの 数が膨大
複雑なタスクの自動化
変化や新しい技術に対する抵抗
法律または契約関連の遅延
予算上の制約または承認期限の延長
倫理的なリスク

データドリブンなCI/CD戦略における自動化・可視化の重要性

1. 「本当にアジャイル」なCI/CDの条件とは?
近年のソフトウェア開発は、CI/CD(継続的インテグレーション/継続的デリバリー)の導入によって、スピードと柔軟性を飛躍的に高めています。しかし、アジャイルな開発体制を名乗るだけでは不十分であり、「アプリケーションのライフサイクル全体を通じて、どれだけ自動化と可視化が実現されているか」が真の成熟度の指標となります。

特に重要なのは、新規リリース後のパフォーマンス監視や障害検知・分析・対応プロセスが、どれだけ人手を介さずに高速・高精度に行えるか、という点です。

2. IT部門が継続的に自問すべき「自動化成熟度チェック」
以下の問いは、CI/CDとアプリケーション監視・運用の成熟度を診断する出発点になります。

新しいリリースのパフォーマンス可視化までに、どの程度の時間がかかっていますか?

モニタリングルールの更新は、新サービスの追加ごとに手動で行っていますか?それとも自動化されていますか?

開発者がトレース・コードや監視設定に費やす工数は、定量的に把握されていますか?

見逃されているインシデントの件数(月次/四半期)を分析・改善できていますか?

**アラートの連続発生(アラートストーム)**に対して、根本原因の特定と重複排除はできていますか?

監視・パフォーマンス管理の自動化レベルは、ビルドやデプロイと同様の水準にありますか?

これらに答えられない、または定量的に測定できていない場合、CI/CDは“見かけ倒し”の自動化にとどまっている可能性があります。

3. 自動化はCI/CDの“最後の未踏領域”
アプリケーションデリバリーパイプライン(CI/CD)は、開発から運用までをシームレスに結びます。運用フェーズの自動化と可視化、すなわちAPM(アプリケーション・パフォーマンス管理)の高度化は、CI/CDにおける“最後の未踏領域”と言えます。

たとえば、IBM Observability by Instana APMのようなソリューションは、以下のような価値を提供します:

AI駆動の異常検知によるリアルタイムなパフォーマンス分析

自動トレースの可視化により、手作業なしで原因特定までを高速化

モニタリング設定の自動化により、新サービスやマイクロサービス追加にも即時対応

アラートのグルーピングと関連性分析で、アラート疲れを防止

このように、CI/CDの“本当のアジリティ”は、運用プロセスの自動化・知能化にかかっているのです。

実践的IT運用におけるナレッジ管理の課題と解決策
CI/CDやモニタリングの整備と並行して、運用現場では「属人化したノウハウ」や「対応履歴の断片化」といった問題も顕在化しています。サービスデスクの対応品質がユーザー満足度に直結する以上、ナレッジの見える化と活用は、ITサービス運用の重要テーマとなります。

暗黙知の形式知化を支えるツール活用
Senju/SMやmPLAT/SMPは、以下のような運用課題を解決します:

ノウハウのナレッジ化・検索性の向上
 対応履歴から自動でナレッジを生成し、ドキュメント作成の負荷を軽減。

柔軟な公開設定と利用範囲制御
 利用者別・部門別に有効な情報のみを効率的に共有。

運用の可視化と無駄の削減
 メールテンプレートやチェックリストを活用し、繰り返し作業や情報検索の手間を削減。

SLA遵守の状況把握と判断支援
 SLAMチャートにより、緊急度や優先順位の判断を迅速化。

これにより、ナレッジとプロセスの標準化を同時に実現し、ITILベースの運用体制をデータに基づき着実に構築できます。

結論:運用を制する者がDXを制す
DX(デジタルトランスフォーメーション)を掲げる企業において、CI/CDやAI、クラウドは“手段”であり、**それを使いこなすための運用設計とナレッジ活用が“本質”**です。

開発~運用までの自動化連携

属人化を排除するナレッジ標準化

パフォーマンス異常のリアルタイム可視化と迅速対応

これらの要素をデータで測定・管理し、定期的に自己診断することが、デジタルビジネスの成功の鍵です。

手作業に依存するモニタリング運用の限界と、自動化によるデータドリブンな最適化戦略

1. 課題認識:変化に追従できない静的ルールのリスク
ビジネス環境が急速に変化する中で、アプリケーションやサービスの健全性を保つためのモニタリングルールも、動的に最適化される必要があります。しかし、ルール設定が手動に依存していると、構成変更やサービス追加のたびに即時対応ができず、結果として古いルールに基づく誤アラートや検知漏れが発生します。これはシステム障害の早期検知を妨げ、可視性の低下や障害対応の遅延を引き起こします。

2. ボトルネック:手動プロセスが開発と運用のスピードを阻害
トレースコードの挿入や監視ルールの更新を手作業で行うことは、アプリケーションのリリースサイクルに悪影響を及ぼします。また、環境の変更に追従するための人的リソースは、ビジネス価値の創出ではなく、再現性のない単純作業に費やされているという課題も浮き彫りになります。

3. 根本要因の分析:なぜモニタリングの自動化が進まないのか?
主な原因は以下の3点に集約されます:
技術的制約:完全自動化されたモニタリングソリューションが一般化したのはごく最近である。

属人化:エンジニアが個別課題に対して独自の監視コードを書くことが多く、保守性が低い。

既存資産の過信:既存の監視ツールを改修して対応しようとするが、構造的に自動化に対応できていない。

4. データドリブンなモニタリング自動化の戦略
高度に変化するアプリケーション環境において、持続可能なパフォーマンス管理を行うには、データに基づいた意思決定を可能にする自動化機能が必要です。以下の5つの機能が鍵となります。

① インフラ全体の自動ディスカバリと可視化
アプリ・インフラ・クラウドサービスの構成をリアルタイムに把握し、依存関係を動的にマッピング。

手作業を排除し、構成情報の信頼性と鮮度を担保。

② ルールの自動生成と更新
アプリやサービス変更時にルールやアラートの自動再構成を行うことで、人手を介さずに誤検出やアラート漏れを最小限に。

③ パフォーマンス異常の自動検知と根本原因分析
AI/MLを活用し、通常動作のベースラインを自動で生成。人手による閾値設定が不要に。

インシデントからの復旧までの時間短縮とナレッジ共有を同時に実現。

④ 初期セットアップの自動化
エージェントの展開、コードの計測ポイント挿入、ダッシュボードのテンプレート化など、導入初期工数を最小限に抑制。

⑤ メタデータの蓄積と再利用
監視データ・設定・対応履歴をメタ情報として蓄積し、他案件への水平展開が可能に。

5. 今後の展望:再現性と継続改善の仕組みを整備
従来の属人化・手作業に依存したパフォーマンス管理から脱却し、継続的に最適化可能なモニタリング基盤を整備することが、今後のCI/CDパイプラインの進化において不可欠です。
すべての業務は測定され、改善されて初めて最適化される。
モニタリングの仕組み自体を「測定・評価・改善可能な対象」として捉える視点が、これからのIT運用に求められています。

無理なく継続できる改善サイクルの構築 

初期はシンプルに、段階的に精緻化するアプローチ

業務プロセス改善において、急激な変更は現場負荷を高め、定着を阻害するリスクを伴います。

そのため、初期段階では利用者に負担をかけない設計(例:自由入力型フォーム)を採用し、利用データが蓄積した後に、プルダウン選択型など精緻な入力制御へと段階的に移行するアプローチが有効です。

また、プロセス適用範囲も一度に拡大せず、チケット管理から開始し、徐々に問題管理、構成管理へと広げることで、自然な定着を促進できます。
Senju/SMおよびmPLAT/SMPは、運用中でも柔軟に画面設計やプロセス拡張が可能なため、データドリブンな段階的改善サイクルに最適な基盤となります。

さらに、SaaS版で素早く運用を立ち上げ、運用データが十分に蓄積・安定化したタイミングでオンプレミス移行し、より高度なカスタマイズ設計を施すステップ戦略も可能です。

複雑化する特別運用ニーズへの柔軟な対応
ツール機能活用とカスタマイズの最適バランス設計

日本企業に特有の「業務個別性」を無理に標準化しようとすると、かえって運用リスクが増大するケースもあります。
Senju/SMおよびmPLAT/SMPは、過去の大規模プロジェクトから得た知見をもとに、複雑な要件にも対応可能な機能群を標準実装しています。

さらに、標準機能ではカバーできない要件に対しても、個別カスタマイズを柔軟に行うことが可能です。
開発・構築・サポートを一貫してNRIが提供しているため、運用現場のリアルなデータ・課題に即した迅速な対応が実現できます。

加えて、既存ユーザーに対しては「アクティブサポート」プログラムを展開。
データ分析に基づく業務改善提案や、ツール機能の高度活用支援を通じて、継続的な運用効率向上をサポートしています。

今後のITインフラ投資戦略に向けた検討テーマ
中長期的な視点で、以下のようなデータドリブンなインフラ最適化が求められています:

IT基盤の統合再構築とモダナイゼーション

仮想化・クラウドシフト戦略(既存システムのクラウド移行、新規システムのクラウドネイティブ設計)

データバックアップおよびリカバリ戦略の再設計

情報セキュリティガバナンスの強化(ゼロトラスト含む)

OSバージョン最新化、PCライフサイクル管理の最適化

テレワーク環境の標準化とDX推進

AI活用によるビジネスプロセス最適化

ネットワークアーキテクチャ刷新(SASEなどへの対応)

経営判断支援のためのリアルタイムデータ可視化基盤整備

ITインフラ監視ツールの選定・活用
可観測性(オブザーバビリティ)を高めるため、次の監視ツール群が選択肢として重要になります:

Mackerel

Datadog

NewRelic

Zabbix

JP1

Hinemos

CloudWatch(AWS)

Azure Monitor

Google Cloud Operations

これらの活用により、IT部門の運用管理負荷を大幅に軽減しつつ、異常検知の精度向上・運用プロセスの高度自動化を図ることが可能となります。

動的なテクノロジー環境における新たなワークロードの現実

近年、アプリケーション環境における変化の速度と規模は飛躍的に増大しています。
たとえば、Docker Hubでは月間80億回以上のプルが行われ、サービス開始(2014年)以来、累計1300億回を超えるプル実績を記録しています。
この動的な環境変化は、IT運用・管理の前提条件を大きく書き換える現実をもたらしています。

IT業界ではCI/CDの概念と運用手法の標準化が進展する一方で、パブリッククラウド各社は、Kubernetesベースのコンテナ基盤をCI/CDパイプラインに容易に統合できる形で提供しています。
アプリケーション構築・デリバリーのパラダイムシフトが、確実に進行しているのです。

手作業パフォーマンスモニタリングの限界
従来型のアプリケーションパフォーマンス管理(APM)ツールは、基本的に静的環境を前提に設計されており、動的なコンテナ環境には適合していません。
このギャップを埋めるため、近年では新しいオープンソース・モニタリング技術が登場しましたが、実運用では以下の手作業タスクが不可避となっています:

データコレクターの開発

分散トレーシングの手動セットアップ

データリポジトリの構築・管理

依存関係のリバースエンジニアリング

データ選別と相関分析

カスタムダッシュボード作成

アラートルール・しきい値設計

これらの作業には、通常、社内で最も高スキル・高コストな人材を必要とします。
結果的に、

デプロイメント速度の低下

運用コストの増大

ビジネスアプリケーション開発リソースの圧迫
といった重大な問題を引き起こします。

オープンソースの活用は柔軟性を提供する一方で、監視環境整備に過剰な人的コストを要するという本質的な課題を内包しているのです。

静的環境から動的環境へのシフトによるパラダイム崩壊
かつてのIT環境では、アプリケーションコードやインフラ(ミドルウェア、サーバー)は数年単位でほとんど変化せず、
IPアドレスやサーバー構成も一度設定すれば長期間安定していました。
そのため、手作業によるモニタリング設定でも十分運用可能だったのです。

しかし現在では、

コンテナベースの短命なリソース

オートスケールするアプリケーション

継続的デリバリーを前提としたCI/CD環境
など、環境そのものが常時変化する前提にシフトしています。

この動的環境下では、従来型の手作業モニタリングや自社独自開発の監視基盤では運用継続が困難であり、抜本的なアプローチ転換が不可欠です。

ITインフラ運用における主要課題
現場のデータから浮き彫りになっている運用上の課題は以下です:

システム個別最適化による管理負荷の増大

リモート対応前提の働き方改革ニーズ

IT人材不足による運用負荷の集中

メンテナンスウィンドウ制約(夜間・休日限定)

物理拠点制約(設置スペース・ラック不足)

情報継承不全(担当者交代に伴うドキュメント欠如)

マルチベンダー管理による問い合わせ・対応コスト増大

資産管理の不透明化(部門別バラバラ調達)

クラウド移行障壁(設計・運用体制未整備)

コスト増・人員不足による運用効率悪化

SaaS乱立による統制不能状態

ネットワーク基盤の老朽化

これらは、すべて「動的環境に適応できていない運用モデル」が引き起こしている課題群といえます。

今後求められる変革アプローチ
これからのITインフラ運用では、

可観測性(Observability)を前提とした設計

自動化・自己修復(Self-Healing)型の運用モデル

統合管理プラットフォームによる一元監視・制御

動的リソースへのリアルタイム適応

が不可欠です。
静的環境を前提とした既存運用モデルを、データドリブンな動的管理基盤へと進化させることが、組織競争力の根幹となります。

ITインフラ調達・運用改革に向けた現状整理と今後の方向性

1. 現状整理:対象領域
ITインフラ調達・運用に関する対象領域は以下の通り整理されます。

ハードウェア/メディア、ソフトウェア

顧客エクスペリエンス領域
(例:顧客サービス、サポート、販売、マーケティング、コンタクトセンター、フィールドサービス管理、顧客データ管理、電子商取引)

データセンターインフラストラクチャ
(コンピューティング、ストレージ、ハイパーコンバージドインフラ、プライベートクラウド・ハイブリッドクラウド)

パブリッククラウドアプリケーション
(SaaSなど)

2. ITインフラ調達業務における現状と課題
現在取り組んでいる施策
受発注プロセスのデジタル化および電子化率向上

サプライチェーンリスク管理対策の強化

抱えている主な課題
担当者不足による購買活動の属人化

現場購買プロセスの複雑化と手作業依存

効果的な価格交渉の実施不足によるコスト高

購買データの可視化・分析基盤の未整備

商品選定・見積もり業務に時間を要している

内部統制(間接購買・費用処理)が不十分

注文管理の不統一による重複購買の発生

拠点ごとに異なる購買プロセスによるガバナンス欠如

3. 今後取り組みたい施策
受発注プロセスのさらなるデジタル化と自動化率向上

購買データの統合と支出分析による可視化・最適化

サプライチェーンリスク管理体制の強化

内部統制ルールの統一と購買ガバナンスの徹底

車載ソフトウェア開発におけるCI/CDとテスト自動化の推進
1. 背景と課題意識
アジャイル開発やDevOps文化の浸透により、自動車産業におけるソフトウェア開発も、より迅速なリリースと品質向上が求められています。
特に車載システム領域では、以下の変化が顕著です。

常に最新ソフトウェアの提供が求められる

システム複雑化に伴い、テスト工数・品質検証の負荷が急増

手動によるテストではCI/CDサイクルに追いつけない

2. 目指す姿
開発工程全体の自動化(単体テスト~結合テスト~システムテストまで)

QCD(品質・コスト・納期)指標の劇的改善

世界基準のテスト自動化プラットフォームの活用

3. 解決アプローチ
AIによる探索的テスト自動化

モデルベースドテスト(MBT)手法の導入

Eggplantなどの先進ツールによる統合テスト自動化

CI/CDパイプラインへの自動テスト統合

4. テスト自動化ツールの活用ポイント
複雑なテストシナリオの自動生成とメンテナンス性

多様な環境(デバイス・OS)への柔軟な対応

可視化ダッシュボードによるリアルタイム品質モニタリング

4. 今後予定しているITインフラ投資と注力領域

投資対象概要
仮想化基盤の更新・拡張現行基盤の性能・可用性向上
クラウド利用拡大SaaS活用推進、IaaS/PaaS最適活用
コンテナ・Kubernetes基盤の強化アプリケーションモダナイゼーション対応
AI・機械学習/データ分析基盤の強化高度な予測分析・自動化支援
セキュリティ対策の強化ゼロトラストアーキテクチャ実装
業務プロセスへのAI導入・自動化整備業務効率化・意思決定の高度化

まとめ

購買・インフラ運用領域では、「データ可視化とガバナンス強化」が急務

車載ソフトウェア開発領域では、「開発全体を見据えた自動化戦略」が成功の鍵

AI・データ活用を前提とした「持続可能なIT基盤構築」が不可欠

データと分析が加速する現代ITの変革

変化の激しい世界に生きているという言葉は、現代においてありふれた表現となりました。しかし、IT組織、特にアプリケーション開発・運用を取り巻く環境の変化は、データ活用の観点から見るとかつてないほどその速度と複雑性を増しています。

お客様へのヒアリングを通じて明らかになるのは、ビジネスからの要求が「スピード」に関するメトリクスに強く集約されているという点です。企業が自社開発アプリケーションを市場やユーザーに迅速に提供できるかどうかが、IT部門のビジネス価値、すなわちデータに基づいたROI(投資対効果)を大きく左右します。このスピード要求に応えるため、IT部門は新しい手法やテクノロジーの採用を強力に推進しています。中でも、デリバリー速度の向上、ビジネス機能の迅速な実装、そして自社開発アプリケーションの品質をデータで裏付けるための自動化手法として、CI/CD (継続的インテグレーション/継続的デリバリー) が広く導入されています。

CI/CDサイクルの効果を最大化する最後の鍵となるのが、モニタリングによって得られるデータです。ビジネスアプリケーションのパフォーマンスや振る舞いに関するデータ収集・分析が自動化され、シームレスに行われるほど、CI/CDサイクルはより円滑に完遂され、収集されたデータを基にしたアプリケーションの改善ループを効率的に回すことが可能になります。

現代のアプリケーション環境は、まさに「動的なデータソース」そのものです。アプリケーションの構造はあらゆるレイヤーで常に変化しており、それは膨大な量の時系列データとして現れます。新たなホストの起動・停止、コンテナの動的なプロビジョニングはインフラストラクチャ層の構成データを絶えず変動させ、開発者が運用検証を経ずに新しいAPIやサービスを構築・デプロイすることは、サービス間連携の構造データを変化させます。改善やバグ修正のためのコード変更は、アプリケーション内部の振る舞いデータを変化させる主要因です。チームがCI/CDを積極的に実践すればするほど、これらのデータはより高頻度に生成・更新されることになります。

この絶え間ないデータの変化に対応するためには、パフォーマンス管理構成、モニタリング・ダッシュボード、アプリケーションの依存関係マッピング、アラート・ルールといった「IT環境の監視・分析設定」自体が、収集されるデータに合わせて自動的に進化していく必要があります。これが実現できなければ、ITチームは管理している環境に関する正確なデータに基づいた可視性を得ることができず、ビジネスはユーザー体験に直接影響しかねない障害発生という、データで測定可能な大きなリスクに晒されることになります。

複雑化する依存関係データ
動的な環境におけるデータの複雑性は、特にコンポーネント間の「実際の依存関係データ」に顕著に表れます。特定のサービスは、他のサービスのデータや処理への依存に加え、自身の基盤となるソフトウェアスタック全体のパフォーマンスデータに依存しています。

なぜ依存関係のデータを常に正確に把握しておくことが重要なのでしょうか?それは、効率的なトラブルシューティングと根本原因分析(RCA)のためです。複雑な環境において、データに基づいた根本原因の究明は、依存関係データを活用した分析手法の核心をなします。なぜ特定のリクエストのレイテンシが高いのか、なぜエラーが発生するのか?リクエストは複数のフレームワークやインフラストラクチャを横断し、多数のサービスを経由します。この問いにデータに基づいて答えるためには、すべてのリクエストフローにおける構造的な依存関係データをリアルタイムに理解することが不可欠です。しかし、前述の通り、この依存関係データは絶えず変化しています。

こうした動的な依存関係データを手作業で解釈・マッピングしようとする試みは、データ量の観点から見て非現実的です。コードデプロイやインフラ拡張によって依存関係データが即座に変化する場合、手作業で一時的に作成されたマッピングデータはあっという間に陳腐化します。さらに、手作業による依存関係データの収集・分析には膨大な人的リソース、それも最も高度な分析スキルを持つエンジニアの時間が必要となり、データ活用のボトルネックとなります。

動的なアプリケーション環境とデータ活用の拡大
アプリケーション開発におけるスピード要求は、新しいサービスを迅速に構築・デリバリーするためのテクノロジー採用を後押ししました。これは同時に、より多様で大量の運用データを生成する環境を生み出しています。

特に、継続的インテグレーション/デリバリー・パイプラインは、スピードと品質のデータ指標を改善するための主要プロセスとして確立されています。このプロセスを強化するために採用されるコンテナ、マイクロサービス、サーバーレス・コンピューティング、Kubernetesといった新しいアーキテクチャは、アプリケーション構成の複雑性を増大させ、それに伴い収集・分析すべきデータの種類と量を飛躍的に増加させています。これらの環境から得られる膨大な運用データをいかに効率的に収集、分析し、実用的な洞察(Insight)に変換できるかが、現代IT組織がスピードと品質の両立を実現するための鍵となります。

データ駆動型エンジニアリング革命の推進力

プラットフォームエンジニアリングは、現代のIT組織におけるデータ駆動型のエンジニアリング変革の重要な原動力となっています。プラットフォームエンジニアリングチームを持つ組織の調査データによると、その最大の成果として、回答組織の55%がIT運用の効率性のデータ指標の改善を挙げています。具体的には、スケーリングの速度、監視対象データのカバレッジ拡大、トラブルシューティングにおけるMTTR(平均修復時間)の短縮といった、運用パフォーマンスに関する定量的な改善が見られます。また、開発者の効率と生産性に関する**データ(例: フィーチャー開発リードタイム、デプロイ頻度)**が向上したと回答した割合も40%にのぼり、データに裏付けられた効率向上はプラットフォームエンジニアリングがもたらす代表的なメリットと言えるでしょう。

「開発者は、付随的な事柄、たとえば、アプリケーションからどのような監視データを収集すべきか、データベース通信に使用するフレームワークのパフォーマンスデータ、FedRAMPへの準拠状況をデータで証明する方法、実行時のプロファイリングからどのようなボトルネックデータを得るかなどの詳細に悩まずに済みます」とLefflerは指摘します。「プラットフォームエンジニアリングチームが、こうしたデータ収集・標準化・提供に関わる作業をすべて引き受けることで、開発者はビジネス成果物の提供という本来の業務に専念できます。」

標準化はデータ収集と分析の効率化に直結します。大規模な組織では、複数の開発チームが異なるプロジェクトに取り組み、それぞれ独自のツールセットとプロセスを使用することで、生成されるデータの形式や管理方法が分断されがちです。プラットフォームエンジニアがソースコードリポジトリやCI/CDパイプラインなどを標準化することで、開発プロセスから得られる実行データや成果物データの形式が統一され、チーム間のコラボレーション強化とデプロイ時間のデータに基づいた継続的な短縮に大いに役立ちます。さらに、プラットフォームエンジニアリングの導入効果が最も大きい領域の一つがセキュリティとコンプライアンスです。ソフトウェアを構築およびデプロイするためのデータに基づいた監査可能な確実な方法を厳密に定めることで、HIPAAやFedRAMPなど、需要の高い法規制や認証に対し、データによる準拠証明を容易にします。

DX/IT戦略の遂行におけるデータ活用の基盤としてのITインフラ
国内企業において、データ活用を加速する上で不可欠な従来型ITインフラの刷新の遅れが懸念される中、DX/IT戦略の遂行に関連した国内企業の取り組み実態はどのようなものであろうか。調査データからは、「セキュリティ強化」、「パブリッククラウドサービスの採用/活用」、「プライベートクラウドを含むオンプレミスIT基盤の再構築」が主要な取り組みとして挙げられています。

回答率1位の「セキュリティ強化」で取り組むべき領域は、ID/アクセス管理のログデータ分析、エンドポイントの挙動データ監視/保護、不正詐欺の検知データ分析、ネットワークのトラフィックデータ保護、データの分類/保護と漏洩リスクのデータ最小化、アプリケーションの脆弱性スキャンデータ管理/修復、インシデント発生時の対応データ分析など多岐に渡ります。ユーザー調査においてセキュリティ強化の回答率が突出して高かった背景には、取り組むべき領域が広いことに加え、国内企業のDXに対する理解の深まり、そして、DXを推進する上で取り扱うデータの種類と量が爆発的に増加し、それに伴うITインフラのセキュリティ強化がこれまで以上に求められているとのリスク認識の広がりがあるとIDCではみています。

DXによるイノベーションの増大には、多くの企業が社内外のアイデアやデータを集約して新たな価値を創造するためにエコシステムを形成し、大規模なデータ共有とそのデータ収益化が加速されるという側面があります。さらに、エコシステムにおいて活用されるデータは、モバイル系で代表される新規アプリケーションから生成されるデータだけでなく、基幹系のミッションクリティカルなシステムで扱ってきた信頼性の高いデータにまで広がることが想定されます。基幹業務で扱ってきたビジネストランザクションや顧客情報/信用情報/取引履歴/コンタクト履歴などの高価値データの活用が進むことを踏まえると、セキュリティリスクへの対処がデータに基づき不十分である場合、エコシステムを通して利益を得る道を絶たれるばかりか、社会的信用という無形資産のデータを損なうことになります。

「パブリッククラウドサービスの採用/活用」や「プライベートクラウドを含むオンプレミスIT基盤の再構築」への取り組みは、国内企業が抱える従来型ITインフラを刷新し、データ活用における経済性、迅速性、柔軟性の高い基盤に変えていく必要があるとの認識に基づくと考えられます。新規ITシステムの導入であるか既存ITシステムの刷新であるかに関わらず、すでに国内企業においてもクラウドファーストが浸透しつつあります。これは、スケーラブルなデータストレージ、高性能なデータ処理能力、多様なデータ分析サービスへのアクセスを可能にするクラウドを、データ活用の主要基盤として位置づける動きと言えます。

AIによるデータ分析が脅威を大規模に阻止する

セキュリティ分野におけるAIの活用は、多様なデータソースから得られるイベントデータを大規模に分析し関連付けることで、従来の個別ログ分析手法から脱却し、インシデントとリスクの全容データを単一のビューで提示することを可能にします。導入後すぐに利用可能なAIモデルは、このデータ関連付けプロセスを自動化・加速し、組織の脅威検出能力のデータ指標、リスク分析の精度、そして**インシデントレスポンスの速度(データに基づいた評価)**を劇的に向上させます。

具体的には、AIによるアラートグループ化機能とデータ主導のインシデントリスクスコアリング機能を活用することで、確度の低いイベントデータをシームレスに関連付けながら、確度の高いインシデントデータを効率的に生成できます。この優先度設定は、インシデントが持つ総合的なリスクデータを考慮に入れるため、セキュリティチームは限られたリソースをデータに基づき最も効果的なインシデント対応に集中させることが可能です。

自動化ファーストの手法でインシデント復旧のデータ指標を加速
Cortex Marketplaceでは、セキュリティプログラム全体でプロセスとデータ連携を最適化するために十分にテストされた数百種類のコンテンツパックが公開されています。組み込みの自動化は、インシデントレスポンスやリスク管理(アタックサーフェスの弱点など、リスクに関するデータポイント)に要する時間と労力を大幅に削減します。これは、手作業によるデータ収集やシステム間でのデータ転記といった非効率なタスクを自動化することで実現されます。

ユーザー特有のニーズに応じて、自動化プロセスをデータに基づいて柔軟に追加、カスタマイズ、変更することも可能です。また、自動起動するアラート専用プレイブックは重要な機能であり、特定のアラートデータをトリガーとして、アナリストの介入を受けることなくセキュリティタスクを即座に実行し、関連するリスクデータに対処できます。さらに、XSIAMはアナリストの手動アクションデータから学習し、将来的な自動化を提案するデータ駆動型の学習機能を備えます。この継続的な学習プロセスは、運用中に生成されるデータ(アナリストの判断、対応結果、インシデント解決までの時間など)をフィードバックとして活用することで、プラットフォームのインシデント自動解決能力(データ指標として測定可能)を強化し、運用を通してその有効性と精度をデータに基づいて改善することを可能にします。

SOCにおけるデータ過多と対応遅延の課題
現代のSOC(セキュリティオペレーションセンター)は、ネットワーク、クラウド、エンドポイントなど、多様なデータソースから絶えず流入するアラートデータに圧倒されています。アナリストがこれらの膨大なアラートデータの調査と処理に苦労している間、真の脅威はしばしば数週間、場合によっては数ヶ月もの間、データとして検出されずに放置されます。チームが実際に侵害をデータで確認しても、脅威の封じ込めには複数のシステムとチームに分散したデータやアクションの調和が必要であり、データ連携が分断された複数のポイントソリューションでこれを実現するのは困難です。

広範囲にわたるアクセスポイントから発生するセキュリティイベントデータの防御を固めるには、複数のシステムから生成されるデータとチームメンバーの協力が必要です。データの分断と複雑性は、脅威を完全に封じ込め、攻撃者を駆逐するのに、より多くの時間がかかることを意味します。

データによると、セキュリティチームがセキュリティアラートを解決するまでに平均145時間(約6日)かかっています。さらに、60%の組織が、セキュリティ問題の解決に4日よりも多くの日数を費やしており、これはインシデント対応における非効率性を示す明確なデータです。

しかし、セキュリティ手法にAIとオートメーションの機能を幅広く導入した組織は、侵害の特定と封じ込めに要する期間が平均して108日短縮されました。これは、AIによる高速なデータ分析と自動化された対応が、セキュリティ運用の主要なパフォーマンスデータ指標を劇的に改善できることを示す、データに基づいた説得力のある結果です。