検索
ホーム クラウドセキュリティ(24)

クラウドセキュリティ(24)

データ分析基盤としてのSIEMの再設計:ハイブリッドクラウド環境におけるセキュリティ可視性の確保

ビジネス環境の変化は、企業が生成・利用するデータの種類と場所を劇的に変化させました。クラウドへの移行、AIワークロードの採用加速は、セキュリティデータの爆発的な増加と分散化をもたらしています。この現状に対し、従来のセキュリティ情報イベント管理(SIEM)アーキテクチャでは、増大し続けるデータを効果的に処理しきれず、結果としてセキュリティリスクが増大するという深刻な課題に直面しています。

本稿では、調査データに基づき現状を分析し、次世代のセキュリティ分析基盤に求められる要件を定義します。

1. データ分析の観点から見た、現代SOCが直面する構造的課題
最近のエンドユーザー調査の結果は、多くのセキュリティオペレーションセンター(SOC)が直面する構造的な課題を浮き彫りにしています。

課題1:データソースの分散化と「可視性のギャップ」
調査では、約半数の組織がハイブリッドクラウドおよびマルチクラウドを主要な運用モデルとして採用しています。これは、保護すべきデータと、分析すべきセキュリティログが、オンプレミスのデータセンターと複数のクラウドサービスに分散していることを意味します。しかし、これらの分散した環境全体を統合的に監視・分析できるツールは半数以下に留まっており、攻撃者にとって格好の隠れ蓑となる深刻な「可視性のギャップ」が生じています。

課題2:分析基盤のサイロ化と非効率な運用
調査対象組織は平均で2.4個のSIEMを保有しており、その背景にはM&Aによるシステム継承や、他の製品ライセンスへのバンドルといった経緯が存在します。この複数SIEMの並存は、セキュリティデータを組織内でさらに「サイロ化」させ、環境を横断した脅威の追跡を著しく困難にしています。加えて、それぞれの基盤に対するライセンス費用や運用人材のコストが重複し、非効率な投資を招いています。

課題3:脅威の高度化と分析能力の陳腐化
攻撃者はAI技術を悪用し、その手口は日々高度化しています。これに対し、多くの組織は既存のSIEMにAI/MLを活用した高度な脅威検出機能を追加したいと考えています。このニーズは、従来のSIEMが主体としてきたルールベースやシグネチャベースの分析手法だけでは、未知の脅威や巧妙な内部不正の兆候を捉えきれないという、分析能力の「陳腐化」が起きていることを明確に示唆しています。

2. 次世代セキュリティ分析基盤に求められる中核要件
これらの構造的課題を解決するためには、セキュリティ分析基盤を単なるログ収集基盤から、データプラットフォームとして再設計する必要があります。その中核要件は以下の通りです。

要件1:ハイブリッドデータ収集能力
新しいプラットフォームは、オンプレミスで稼働するメインフレームやOTデバイスから、複数のクラウド上で展開されるコンテナ化されたマイクロサービスまで、あらゆるソースからデータを効率的に収集できるアーキテクチャを備えている必要があります。特に、クラウド上の大量のデータを一度オンプレミスに送り返す「バックホール」というアプローチは、高額なデータ転送料金と分析の遅延を引き起こすため、現実的ではありません。クラウドネイティブなアーキテクチャで、データソースの近くで収集・分析できることが不可欠です。

要件2:AI/MLを活用した高度な分析エンジン
膨大なデータの中から人手で脅威の兆候を見つけ出すことは不可能です。次世代の基盤には、AI/MLを活用して正常な状態をベースラインとして学習し、そこから逸脱する「異常」を自動的に検知する能力が求められます。これにより、既知の攻撃パターンに依存せず、未知の脅威や内部不正の予兆を早期に発見できます。

要件3:スケーラビリティと予測可能なコストモデル
データ量の増大に対して、パフォーマンスを劣化させることなくリニアにスケールできる能力は、クラウドネイティブなプラットフォームの必須条件です。それに伴い、コスト体系もデータ量に応じた従量課金制など、予測可能で合理的なモデルであることが、継続的な運用と投資対効果の観点から極めて重要となります。

結論:分析基盤の変革に向けた戦略的移行
調査では、実に83%もの組織がクラウド戦略を推進するためにマネージドサービスやプロフェッショナルサービスの活用に前向きです。これは、高度なセキュリティ分析基盤を自社単独で構築・運用するのではなく、専門知識を持つパートナーとの協業が合理的な選択肢であることを示しています。

従来のSIEMからの移行は、単なるツールのリプレイスではありません。これは、「サイロ化したログ集計基盤から、AIを駆使した統合的なセキュリティデータ分析プラットフォームへの変革」と定義すべき戦略的な取り組みです。この変革こそが、複雑化するハイブリッドクラウド環境において事業の継続性を支える、データドリブンなセキュリティ運用の基盤となります。

データ分析に基づくWeb・APIセキュリティ戦略:最適なWAF選定とリスク評価のアプローチ

Webアプリケーションへの攻撃に対する防御策としてWAF(Webアプリケーションファイアウォール)は有効ですが、その選定プロセスは複雑化しています。最適なソリューションを導入するためには、各製品の機能比較だけでなく、自社のトラフィックデータやインシデントデータに基づいた定量的なリスク評価が不可欠です。

本稿では、感覚的な選定から脱却し、データドリブンな視点から自社に最適なセキュリティ投資判断を行うためのアプローチを解説します。

データに基づくWAF選定と比較フレームワーク
合理的なWAF選定には、客観的なデータに基づく評価プロセスが求められます。導入後の運用負荷までを見据えたTCO(総所有コスト)の観点から、以下のステップで比較検討を進めることを推奨します。

リスクプロファイルの分析と可視化
Webトラフィックログ、過去のセキュリティインシデント、脆弱性診断結果を分析します。これにより、自社がどのような攻撃ベクトルに晒されているか、どの情報資産が最も狙われやすいかを特定し、リスクを定量的に評価・可視化します。

防御能力のマッピング評価
ステップ1で可視化したリスクプロファイルに対し、各WAF製品が持つ防御ロジック(シグネチャベース、AI/機械学習による異常検知など)がどの程度有効かを評価・マッピングします。これにより、自社の脅威に適合した製品を論理的に絞り込むことが可能です。

運用TCO(総所有コスト)の算出
導入後の誤検知チューニングやレポート分析、インシデント対応にかかるであろう工数を予測し、運用負荷を含めたTCOを算出・比較します。自動化機能や運用支援サービスの有無がTCOにどう影響するかも重要な分析ポイントです。

APIセキュリティ:ログ分析と脅威インテリジェンスの重要性
クラウド利用の拡大に伴い、APIはDXを支える中核技術となりました。しかし、これは同時に「攻撃対象領域(Attack Surface)」が拡大していることを意味します。従来の境界型防御では検知が困難なAPIへの脅威を特定するには、APIトランザクションログの継続的な分析が不可欠です。

このリスク分析において、「OWASP API Top 10」は重要なフレームワークとなります。APIの正常な通信パターンをデータに基づきベースラインとして定義し、そこから逸脱する異常なリクエストや認証・認可の試みを検知・分析することが、効果的な防御の第一歩となります。

データドリブンなAPIセキュリティの実現:「F5 XC WAAP」によるアプローチ
APIの脆弱性や脅威をデータとして捉え、分析に基づいた対策を講じることが、セキュリティレベルを向上させる鍵となります。

SCSKが提供する脆弱性診断サービスは、実際の攻撃データや膨大な脆弱性データベースに基づき、企業の潜在的リスクを客観的に明らかにします。

「F5 XC WAAP(Web Application and API Protection)」は、このようなデータに基づいたセキュリティ対策を実践するための統合プラットフォームです。APIトラフィックを詳細に可視化し、脅威インテリジェンスと連携することで、「OWASP API Top 10」に挙げられるような高度な脅威を検知・防御します。これにより、インシデントデータの分析を通じた継続的なセキュリティ態勢の改善(PDCA)サイクルを実現します。

データに基づいた最適なセキュリティ戦略の策定や、自社リスクの定量的評価に関心をお持ちでしたら、ぜひご相談ください。

【テーマ1:APIセキュリティ】

データ分析で解き明かすAPIセキュリティリスクとその対策
APIが拓くビジネス機会と、データ分析で管理すべき新たなリスク領域

クラウドサービスの連携やデータ活用において、APIはビジネス成長を加速させる中核技術です。しかし、その一方でAPIは新たな「攻撃対象領域(Attack Surface)」を生み出しており、そのリスクは従来の境界型防御の考え方だけでは管理しきれません。問題の本質は、APIを通過する膨大なトランザクションデータの中に潜む「脅威の兆候」を、データとして捉え、分析できていない点にあります。

リスク分析フレームワークとしての「OWASP API Top 10」

「OWASP API Top 10」は、単なる脅威のリストではありません。これは、APIのトランザクションデータを分析し、リスクを分類・評価するためのデータ分析フレームワークと捉えるべきです。重要なのは、APIの正常な通信パターン(リクエスト/レスポンスの構造、データ量、アクセス頻度など)をデータから学習し、「ベースライン」を定義することです。このベースラインから逸脱する「異常(アノマリー)」を検知・分析することが、未知の脅威に対する効果的な防御の第一歩となります。

データドリブンなAPIセキュリティ対策の実現へ

APIセキュリティの高度化とは、データに基づいたリスクマネジメントを実践することです。

SCSKの脆弱性診断は、実際の攻撃データや脆弱性データベースに基づき、企業の潜在リスクを客観的なデータとして提示します。

さらに、ソリューションとして提案する「F5 XC WAAP」は、APIトランザクションデータを収集・可視化し、脅威インテリジェンスと連携して高度な分析を行うためのデータプラットフォームです。これにより、インシデント発生時の原因究明(フォレンジック)に必要なデータを提供し、継続的なセキュリティ改善サイクル(PDCA)の実行を支援します。

データに基づいた具体的なAPIリスクの評価手法や、防御策に関心のあるセキュリティ運用担当者の方は、ぜひご参加ください。

【テーマ2:共有アカウント管理】
アクセスログ分析による共有アカウントのリスク可視化と統制強化
SaaS活用で生じる「証跡データ欠落」という新たなリスク

SaaSやクラウドサービスの普及が進む一方、複数人で利用される「共有アカウント」の管理が、データガバナンス上の重大なリスクとなっています。問題の本質は、「誰が、いつ、どのデータにアクセスしたか」という最も基本的な**証跡データ(アクセスログ)**が欠落し、リスクが可視化されていない点にあります。インシデント発生時に原因を特定できないだけでなく、監査で客観的な証拠を示せないという課題にも直結します。

属人管理がもたらすアクセスデータのブラックボックス化

共有ID・パスワードが非公式な手段で管理されている状態は、証跡データの生成・収集を阻害し、アクセス状況をブラックボックス化させます。これにより、インシデント発生時に原因究明の起点となるデータ(トレーサビリティ)が確保できず、迅速な対応が不可能になります。属人的な運用から脱却し、全てのアクセス証跡をデータとして蓄積・分析できる体制への転換が急務です。

証跡データの収集・分析による監査対応とリスク管理の実践

この課題への解決策は、全ての共有アカウントへのアクセスログを自動的に収集・構造化し、分析可能な状態に置くことです。

国産クラウドサービス「パスクラ」は、この証跡データを確実に生成・管理するためのソリューションです。「誰が、いつ、どのアカウントを利用したか」をデータとして可視化することで、不正アクセスの予兆検知や、退職者アカウントの不正利用といった具体的なリスクシナリオへの対応を可能にします。

感覚的なアカウント運用から、データに基づいた客観的なリスク管理へと転換し、監査対応と内部統制を強化するための実践的なアプローチを解説します。ご興味のある方は、ぜひご参加ください。

【テーマ1:AWS WAFの運用】

データ分析に基づくAWS WAF運用の最適化と自動化アプローチ
クラウド移行に伴う脅威データの増大と、データドリブンな防御の必要性

AWSへのインフラ移行が加速する中、Webアプリケーションを標的とする攻撃トラフィックのデータ量は増大し、その手口も高度化しています。クラウドの「責任共有モデル」において、利用者は自らが管理するデータやアプリケーションを保護する責任を負います。これは、日々生成される膨大なアクセスログや脅威データを分析し、データに基づいたセキュリティ運用を行う責任があることを意味します。

WAF運用におけるデータ分析の課題

AWS WAFは強力な防御ツールですが、その効果を最大化するにはデータ分析が不可欠です。しかし、多くの現場では以下のような課題に直面しています。

防御ルールの有効性評価の欠如: 「この設定で正しいか」という不安は、防御ルールが実際にどの程度の攻撃をブロックし、ビジネス上重要な通信を誤って遮断(誤検知:False Positive)していないかを、ログデータに基づいて定量的に評価できていないことに起因します。

検知イベントデータの未活用: WAFを”導入しただけ”の状態は、WAFが生成する貴重な検知イベントデータが分析・活用されず、潜在的な脅威の予兆や攻撃パターンの変化を見逃している状態です。

分析プロセスの属人化: 継続的なチューニングやインシデント対応が特定の人材に依存している場合、分析プロセスが標準化されておらず、客観的なデータに基づく判断が困難になります。

データと自動化で実現する効率的かつ効果的なWAF運用

これらの課題を解決する鍵は、WAF運用から得られるアクセスログ、アラート、脅威インテリジェンスといった各種データを統合的に分析し、運用プロセスを最適化・自動化することです。

GMOサイバーセキュリティ byイエラエが提供する「WAFエイド」は、まさにこのデータドリブンな運用を実現するソリューションです。脅威インテリジェンスに基づいた独自ルールの適用や、機械学習によるログ分析を通じて、人手では困難な高度なチューニングと脅威検知を自動化します。これにより、感覚的な運用から脱却し、データに基づいた効率的かつ効果的なセキュリティ体制を構築できます。

データに基づいた付加価値の高いセキュリティ提案へ

「WAFエイド」のパートナープログラムは、AWS環境の構築・開発を行う企業が、顧客に対してデータに基づいた付加価値の高いセキュリティ提案を行うことを可能にします。顧客のログデータを分析し、客観的な根拠に基づいたセキュリティ対策を提案することで、ビジネスの差別化に繋がります。

【テーマ2:SaaSセキュリティ】
ログデータ分析で解き明かすSaaSセキュリティリスクと統制強化
SaaS利用拡大の裏で急増する「設定・監査データ」に起因するリスク

SaaSの導入は業務効率を飛躍的に向上させる一方、その運用・監査体制が追い付いていません。情報漏えい事故の多くは、個別のヒューマンエラーというよりも、複数のSaaSに分散しサイロ化した「設定データ」や「アクティビティログ」を統合的に収集・分析できていないという、データマネジメントの不備に起因します。インシデントによる金銭的インパクトの試算は、このリスクが定量的に極めて大きいことを示唆しています。

設定ミスを「構成情報データ」の異常値として捉える

SalesforceやMicrosoft 365など、信頼性の高いSaaSで発生する設定不備は、「一元的に管理・監査されていない構成情報(データ)」の問題と捉えるべきです。各SaaSに散在する複雑な設定項目や権限情報をデータとして集約し、あるべき姿(セキュリティポリシーのベースライン)と比較・分析することで、ポリシーから逸脱した設定を自動的に検知し、リスクを可視化する必要があります。

アクティビティログの機械分析による脅威の予兆検知

情シス担当者の属人的な監視には限界があります。真に効果的な対策は、「全てのSaaSのアクティビティログを収集し、機械的に分析すること」です。ユーザーの通常のアクティビティパターンをデータから学習して「ベースライン」を定義し、そこから逸脱する行動(深夜の大量データエクスポート、普段アクセスしない国からのログインなど)を「異常(アノマリー)」として自動検知するアプローチが、不正アクセスの入口となるリスクを低減させます。

SaaSセキュリティは、もはや個々の設定を確認するだけでは不十分です。複数のSaaSから生成される膨大な「設定データ」と「ログデータ」を統合分析する、データドリブンなアプローチへの転換が不可欠となっています。