検索
ホーム データドリブン・データ活用・RPA(11)

データドリブン・データ活用・RPA(11)

IT部門とビジネス部門のデータ連携モデル:データガバナンスとデータモデリングにおける協働

IT部門とビジネス部門の連携は、メタデータ定義、ビジネスルール設定、レポートモデル設計といったデータガバナンスおよびデータモデリングプロセスにおける専門家による協働が不可欠です。このようなプロセスは、ビジネスの静的な状態は存在しないデジタル変革の時代において、進化し続けるビジネスニーズをデータとして捉え、データ基盤や分析ツール、データモデルをデータに基づき継続的に最適化するために、継続的に反復され改善される必要があります。データ収集・分析ツールからのフィードバックや、現場のデータ利用実態と分析要件に関する情報収集・分析に基づいたボトムアップの方法論は、このようなデータ駆動型アプローチにおける重要な要素となります。ビッグデータ分析のフレームワークもまた、ビジネスの要求とデータ環境の変化に合わせて進化しなければなりません。

Tableauのビッグデータ対応ビジョン:データ活用の民主化と分析能力向上
Tableauのミッションは、一貫して組織のデータからビジネスインサイトを獲得するためのデータ可視化・分析プラットフォームを提供し、ユーザーがデータを見て理解できるように支援することにあります。Tableauはデジタルエコノミー向けのモダン分析プラットフォームとして、「誰もがデータを使えるようにすべきである」という信念を持っています。これは、組織全体のデータリテラシー向上とセルフサービスデータ分析の実現によるデータ活用の民主化を目指す姿勢を表しています。データに関する質問を、データに関する知識を持つユーザー自身ができるように、すなわちすべてのスキルレベルのナレッジワーカーが、保存場所を問わず自社のデータにアクセス、分析し、インサイトを発見できるようにすることを目指しており、これはデータアクセス性の向上、直感的なデータ分析ツール提供、および分析結果の解釈支援機能による組織全体のデータ分析能力向上に貢献します。

Tableauのビッグデータ対応への投資実績評価:データ統合と分析プラットフォームの進化
多くのお客様が多様なビッグデータテクノロジー(Hadoop、NoSQL、大規模オンプレミスおよびクラウドデータウェアハウスなど)を扱うようになるにつれて、Tableauはエンジニアリングに関する投資、エコシステム内のパートナーシップ構築、および製品全体のビジョンを、データ環境の進化に合わせて戦略的に調整しています。Tableauには、ビッグデータ時代の到来以前から、これらのビッグデータ環境とのデータ接続性の強化に継続的に投資してきた豊富な実績があります。これらの投資には、HadoopおよびNoSQLプラットフォームに関するデータ接続機能の開発や、大規模なデータウェアハウスへの最適化が含まれます。これは、Tableauが多様化するデータソースからのデータ統合を重視し、データ環境の変化に対応できるデータ分析プラットフォームとしての進化戦略を推進していることを示しています。

Lenovo社のグローバルビジネスインテリジェンス部門ディレクター、ASHISH BRAGANZA氏の事例は、Tableauのデータ活用能力がもたらす定量的な成果を示しています。Lenovo社がTableauを活用して28カ国全体でレポート作成プロセスを標準化・効率化し、レポート作成にかかる工数をデータとして95%削減したことは、データ活用による業務効率化の具体的な事例であり、グローバルレベルでのデータ分析効率改善がビジネスにもたらすインパクトを明確に示しています。

Tableauのデータアクセスと接続性:データ統合の柔軟性と摩擦低減
任意のサイズまたは形式のデータ分析を可能にするために、Tableauはデータの保存場所に関係なく、データへの広範なデータソース接続機能をサポートしています。Tableauがネイティブでサポートするデータ接続は75種類を超え、拡張オプションによりその他多数のデータソースと接続することができます。これは、多様化するデータ形式(構造化、非構造化、半構造化)やデータ保存場所(オンプレミス、クラウド、各種データベースなど)に対応するデータ統合の柔軟性の高さを示しています。新しいデータソースが出現し、Tableauのユーザーにとって重要になっている状況に対応するため、Tableauは継続的にベンダー提供のTableau向けコネクタの統合と認証を行っており、データアクセスにおけるデータ統合の摩擦を低減するためにそれらを製品に組み込んでいます。現在もこれからも、Webトラフィックデータ、データベース内のレコードデータ、ログファイルデータといった、ユーザーが分析対象として利用したいと思う多くのデータソースが出現することは間違いなく、Tableauはこれらの多様なデータへの接続性を維持・向上させる取り組みを継続しています。

クラウド環境におけるデータ管理の複雑性とデータプラットフォームの要件

特化された多数のクラウドサービスを組み合わせる、あるいはオンプレミス環境とのハイブリッド構成を採用する場合、多様なデータソース、データフォーマット、データプロトコル、および異なるデータプラットフォームに起因するデータ統合、データ連携、およびデータガバナンスの複雑性が顕著になります。このような状況下でクラウドの潜在的なメリットを最大限に得るには、膨大な開発と保守にコストとリソースを要するのが現状です。

この複雑性に対処し、クラウド移行からデータに基づいた価値を獲得するためには、組織には以下のようなデータプラットフォームが必要です。

データライフサイクル全体を支援する柔軟性: クラウド導入のどの段階にある組織にも役立つ、データ収集、データ処理、データ分析といったデータライフサイクル全体を、組織のクラウド成熟度に合わせて柔軟に支援できる能力。
多様なデータソース・時間粒度からの収集能力: ソース(オンプレミス、クラウド、エッジ)と時間尺度(リアルタイム、バッチ)を問わず、あらゆる種類のデータを効率的に収集できる能力。
データ量・ソース・利用者増加へのスケーラビリティ: 組織の拡大に伴うデータ量、データソース、データ利用者の増加に対して、データストレージ、データ処理能力、データ分析機能をシームレスに拡張できること。
組織全体のデータ活用能力向上: 組織内の誰もがデータにアクセスし、分析し、データに基づいたアクションを取るための力を与える、すなわちデータリテラシーの向上、セルフサービスデータ分析ツールの提供、およびデータ分析結果を意思決定や業務プロセスに組み込むための仕組みを包括的に提供できること。
データ活用における現状の課題分析
しかし、多くの組織では、データ活用に関する構造的な課題に直面しています。個人がExcelなどでデータを管理し、必要な時にデータが取り出せない状況はデータガバナンスの欠如を示しており、社内にデータが散在し、所在が不明なことはデータサイロ化とデータ統合の困難性を浮き彫りにしています。最終的にExcelで加工するため効率化に繋がらないという課題は、データ活用スキルの不足や、高度なデータ収集・活用ツールが適切に利用されず埋もれてしまう、すなわちデータ活用投資のROIが低迷している状況を示しています。膨大な時間とコストをかけてデータを収集しても、十分に活用できず「宝の持ち腐れ」になってしまうケースが多発しており、これはデータ収集・管理活動がデータ分析やビジネス成果に繋がらないデータ活用の断絶が発生していることを示唆しています。

データ人材育成の必要性:データ活用能力向上のための人的資本投資
このようなデータ活用における課題を克服するためには、「収集したデータを活かせる人材の育成」が急務となっています。これは、組織全体のデータリテラシー向上に加え、データエンジニアリング、データサイエンス、データ分析、データガバナンスといった専門領域におけるデータスキル開発が必要であるという、組織全体のデータ活用能力向上のための人的資本投資の重要性を示しています。

データ活用実践例の提示:ビジネス現場でのデータ活用方法紹介
本コンテンツは、特定のユースケースにおけるデータ収集、分析、可視化、およびデータに基づいた意思決定プロセスを解説するデータ活用実践例を提示します。これは、「DX推進を進めるべき」「社内データの活用を強化すべき」といった指令を受けている部門担当者に対し、具体的なデータ活用方法に関する情報提供を行うことで、これらの担当者のデータ活用への理解を深め、具体的な取り組みを促進することを目的としています。

組織のデータ活用成熟度評価と主な課題分析
現在の組織におけるデータ活用の状況は、そのデータ収集範囲、データ統合レベル、データ分析能力、データに基づいた意思決定の浸透度といったデータ活用に関する指標に基づいて、いくつかの段階で評価できます。具体的には、全社的にデータ活用を実施している段階から、本番環境での部分的なデータ活用、PoC段階(成果が出たが本番活用できていない、あるいは成果が出ていない)、データの基本的な収集・保存段階、そしてまだデータ活用に取り組んでいない段階まで様々です。

データ活用に関する主な課題をデータコンサルタントの視点から分析すると、以下のような点が挙げられます。

専門的な技術者や人材がいない: データエンジニアリング、データサイエンス、データ分析、データガバナンスといった専門領域のデータ人材不足が、高度なデータ活用を阻害しています。
費用対効果が示せない: データ活用投資に対するビジネス成果(データ指標改善)の測定・評価の困難性や、ROI分析能力の不足により、データ活用への投資判断が難しくなっています。
性能の課題がある: 大量データ処理、リアルタイムデータ分析、複雑な分析クエリ実行といったデータ処理要件に対し、データ基盤のパフォーマンスが不足しています。
運用の課題がある: データパイプラインの監視、障害対応、データ更新、アクセス管理といったデータ管理・運用の複雑性とリソース不足が、データ活用の継続性を脅かしています。
セキュリティの課題がある: データの機密性、完全性、可用性を保護するためのデータセキュリティ対策の不足や不徹底が、データ活用のリスクを高めています。
今後の拡大に向けて設計ができていない: データ量、データソース、データ利用者の増加に対応できるスケーラブルで柔軟なデータアーキテクチャ設計が欠如しており、将来的なデータ活用拡大が困難です。
データの質に課題がある: データの不整合、欠損、重複、古さといったデータ品質に関する問題が、データ分析結果の信頼性を損なっています。
データの統合に課題がある: 異なるデータソースからのデータ収集、変換、ロードにおける技術的・運用的な困難性が、統合的なデータ分析を妨げています。
今後注力すべきデータ関連テーマの分類
DXやデータ活用に関して、今後、組織が取り組むべきテーマは多岐にわたります。これらをデータコンサルタントの視点から分類すると、以下のような領域が重要となります。

AIおよび機械学習の導入: データ分析の高度化、予測分析、自動化への活用を目指す領域。
ビッグデータ解析: 大量かつ多様なデータからのインサイト抽出に焦点を当てる領域。
IoT(モノのインターネット)の活用: IoTデバイスからのリアルタイムデータ収集・分析とビジネス応用に関する領域。
クラウドコンピューティングの利用: スケーラブルなデータ基盤とデータ処理環境の構築に関する領域。
データセキュリティおよびプライバシー保護: データ資産の保護と関連規制への対応に関する領域。
データガバナンスの強化: データ品質、信頼性、セキュリティ、アクセシビリティを確保するためのポリシーとプロセス構築に関する領域。
データ駆動型マーケティング: 顧客データ分析に基づくパーソナライズされたマーケティング活動に関する領域。
顧客体験(CX)の向上: 顧客行動データやフィードバックデータ分析に基づくサービス改善に関する領域。
業務プロセスの自動化(RPA): データ入力、データチェック、レポート作成といった定型業務の自動化に関する領域。

財務会計の高速化:経営判断におけるデータ鮮度と正確性の向上

「財務会計の高速化」は、財務関連データの収集、統合、分析、報告といった一連のデータプロセス全体を効率化し、変化の激しい経営環境下で素早く正確な経営判断を行うために不可欠な、財務データの鮮度と正確性を向上させることのデータ分析的意義を強調します。経営者には刻々と変化する状況をデータに基づいて迅速かつ正確に把握することが求められ、その実現の鍵を握るのが、様々な部門に点在する社内データの集約と可視化、すなわち経営判断に必要なデータソースの統合と分析結果の効果的なデータプレゼンテーションです。過去よりデータを有効活用し、経営の意思決定に役立てたいというニーズは存在しましたが、データ基盤構築およびデータ分析実行に必要な技術的・人的リソースの制約が、データ駆動型経営の導入を遅延させていた要因として分析できます。

経営企画部門におけるデータ活用目標と障壁の分析
経営企画部門では、ITリソースの不足といった外部制約に対し、自身の手でデータを集約・可視化し、経営判断に役立てるという、非IT部門によるデータ活用の民主化への取り組みを目指していました。しかし、その前にはデータコンサルタントの視点から分析される多くの障壁が立ちはだかっていました。まず、全社のデータが様々なシステムにサイロ化しており、データカタログやメタデータ管理が不十分であることによる、どこにどのようなデータが存在するかのデータ探索とデータソース特定の困難性がありました。加えて、データ統合(ETL/ELT)やデータクリーニングといったデータエンジニアリングスキルが経営企画部門には不足していました。さらに、扱うデータ量が膨大であったため、従来のツール(Excel)や手作業でのデータハンドリングでは対応できないデータ量と処理能力の限界が存在し、これは現実的なデータハンドリング手法ではありませんでした。非IT部門が主体となってデータドリブンな経営を実践するには、こうしたデータ収集、加工、管理、処理能力といったデータ関連の課題をクリアする必要があったのです。

Domo活用によるデータ活用プロセス改善の分析
試行錯誤の末、NDISがこれらの課題に対する解決策として行き着いたのが、BIツール「Domo」の活用でした。データコンサルタントの視点から分析すると、Domoは直感的な操作性とノーコード開発を特長としており、これは非IT部門によるデータ準備のセルフサービス化を可能にします。コネクター機能により様々なデータソースからデータを自動的に収集・連携できる点は、データ収集と統合の自動化を促進します。ノーコードのETL機能は、ITスキルに依存しないデータ変換・整形プロセスの効率化を実現します。さらに、豊富な可視化機能は、経営判断に必要なインサイトを迅速かつ効果的に伝達するためのデータプレゼンテーション能力の向上に貢献します。

Domo活用による成果の定量評価
これらのツールの活用により、NDISはデータに基づいた定量的な成果を達成しました。わずか3ヶ月という短期間で全社の業績ダッシュボードを作成することに成功したことは、経営判断に必要な重要データの統合と可視化基盤構築におけるプロジェクト遂行期間と成果物納品速度のデータ改善を示しています。レポート作成工数をデータとして75%削減したことは、データ収集、加工、可視化にかかるデータハンドリング工数の大幅な削減を示しており、リアルタイムに近い形で経営状況を把握できるようになったことは、経営判断に必要なデータの鮮度とアクセス速度の向上を意味します。これらのツールの活用により、経営企画部門自らの手によるデータドリブンな経営の実践が大きく前進したのです。

NDISのデータ活用成功事例としての紹介
このようなNDISの取り組みは、非IT部門がデータ活用ツールを活用してデータドリブンな経営を実現した具体的なデータ活用成功事例として、データ活用に同様の悩みを抱える他の組織にとって有益な示唆を提供します。NDISが直面したデータ収集、加工、可視化といったデータ活用ライフサイクルにおける具体的な課題と、Domoというツールを活用してどのようにこれらの課題を解決したのかを分析することは、他の組織がデータ活用戦略を立案したり、適切なツールを選定したりする上で、具体的なアプローチや期待される効果に関するヒントを得ることに繋がります。

HPE Intelligent Data Platform:データ経済性モデルとデータ活用リソースの柔軟な提供

HPE Intelligent Data Platformが提供するAs-a-Serviceエクスペリエンスは、優れた柔軟性とアジリティを提供するために、HPE GreenLakeフレックスキャパシティというデータ量に基づいた従量制IT消費モデルを利用します。この成果ベースの消費モデルは、オンプレミスまたはコロケーションサイトでプロビジョニングされる、すぐに使用可能な柔軟性の高いストレージリソースを提供し、ストレージインフラストラクチャのコストをデータに基づいて最大30%削減します。また、データ基盤の利用コストデータをビジネス活動やプロジェクトに紐づけて分析することでコストを透明化し、ビジネスプロセスとの整合性を確保できるようになります。これは、データ投資のビジネス貢献度を可視化するデータコスト管理およびROI分析を支援します。HPE Intelligent Data Platformの導入により、ストレージ関連の問題解決に必要な時間がデータとして85%削減され、ストレージ関連の運用コストがデータとして79%削減されることは、定型的なIT運用データ(障害対応時間、プロビジョニング時間など)の削減に繋がり、ITスタッフを通常業務から解放し、データ分析やビジネス課題解決といったビジネス成果に繋がる有益な高付加価値業務へとリソースを振り向けることを可能にします。

Intelligent Data Platformによって、組織自身がデータセンターにおけるサービスプロバイダーの役割を果たすことが可能になります。データセンターのリソースをデータストレージ、データ処理能力、データ分析機能といったデータサービスとして提供できるアーキテクチャが実現されます。コンテナベースの分析パイプラインを瞬時に構築し、それをサービスとして利用できる機能は、特定のデータ分析ユースケース(例:リアルタイムデータ分析、機械学習モデル学習)に必要なデータ処理環境をコンテナ化し、迅速にプロビジョニング・利用できるデータ分析環境のオンデマンド提供を可能にします。これは、データに基づいたAI/MLモデル開発・デプロイメントを促進し、AIの活用範囲をさらに広げます。組み込みの自動化機能により、開発者やデータサイエンティストは、必要なデータストレージ、データ処理能力、データ分析ツールといったデータリソースをデータに基づいて要求し、セルフサービス形式で自動的に利用開始できるようになります。これにより、リソースの提供を待つことなく、アプリケーション開発やデータ分析作業をより迅速に進めることができます。すべてのHPEインフラストラクチャに柔軟な消費モデルを導入することで、データ量に応じた従量制の支払いと、インフラストラクチャの簡単かつ迅速な追加が可能になり、従来の調達モデルに比べてデータ基盤の拡張における市場投入までの時間を短縮できます。

最後に、インフラストラクチャを有効活用するのであれば、HPEはデータ基盤のライフサイクル全体にわたるデータコストの予測可能性を提供し、今後のコストを明確にしたシームレスなアップグレードパスによる永続的なデータサービス利用エクスペリエンスを実現します。

経理組織の変革必要性:変化に対応できないデータ活用能力の課題
現代のビジネス環境は急速に変化しており、企業の成長ステージに応じて経理組織が果たすべき機能や役割も進化していく必要があります。しかし、データコンサルタントの分析によると、日本企業の多くでは、経理組織が過去に定められた業務範囲やデータ管理プロセスに固執し、変化するビジネスニーズ(例:リアルタイム経営データへの要求、将来予測データ)に対応できていない現状が観測されています。将来的に、経理業務に必要なデータ処理・分析スキルを持った人材の確保が困難になるというデータスキルを持った人材リソースの制約も懸念されており、持続的な発展を遂げるためには、経理組織がデータに基づいた意思決定支援や将来予測といった高付加価値業務へシフトするためのデータ活用能力の変革が不可欠といえます。

成長企業に必要な経理組織の変革を促すことを目的として、市場環境の変化や企業の成長ステージに応じて、経理組織が収集・分析・報告すべきデータや、経営者や直接部門が経理組織に期待するデータ分析アウトプットを再定義するプロセスが重要となります。そして、成長企業の経理組織に将来生じるデータ量増加への対応、多様なデータソースの統合、高度なデータ分析スキル不足といった課題をデータ分析に基づいて洗い出し、経理組織のデータ活用能力向上や組織体制変革といった観点から改革への道筋を解説します。

この取り組みを通じて、参加者が目指すべき経理組織の姿を、データに基づいた役割、機能、および活用データといった具体的なイメージとして捉えられるようになることが期待されます。成長企業の未来を創る「経理革命」の一端を担うことは、データ活用能力向上による経理組織の付加価値向上とビジネス貢献へのコミットメントを示すこととなります。

Intelligent Data Platformによる複雑な環境のデータ分析的簡素化

HPE Intelligent Data Platformは、人間では対応が困難な複雑なIT環境をデータ分析に基づき簡素化します。データセンターインフラストラクチャデータに加え、HPEシステムのインストールベース全体から収集される多様なデータに対して機械学習アルゴリズムを適用することで、インフラストラクチャの問題をデータに基づき迅速に特定および解決することが可能になります。これにより、システム稼働時間データにおけるダウンタイムが削減され、管理者は問題対応といったリアクティブな作業から解放され、データ分析に基づいたインフラストラクチャの継続的なサービス向上に注力できるようになります。

ハイブリッド環境管理におけるデータ可視性と配置最適化
複雑なハイブリッドコンピューティング環境では、複数のデータセンターやクラウドに存在する数百ものシステムにデータやワークロードを配置する際に、膨大なデータ量と多様性に伴う多くの選択肢が提供されます。それぞれの効率や効果をデータに基づいて評価し、ワークロード間で実行可能なインタラクションを特定するためには、インテリジェントシステムに対応できる高度なデータ収集、分析、およびデータに基づいたシミュレーション能力が必要となります。Intelligent Data Platformを導入することで、このような複雑なハイブリッド環境におけるデータ管理の課題から脱却できます。管理者には、データの作成場所、保存場所、利用場所、データ移動経路といったデータフローとデータロケーションの統合的なデータビューが可視化され、IT部門とビジネス部門両方に最大の成果をもたらすデータとワークロードの最適な配置を、データ分析に基づいたコスト効率、パフォーマンス、セキュリティ、コンプライアンスといった多角的な評価指標を用いて決定するために必要な情報が提供されます。

データライフサイクル管理のデータガバナンス視点
システム、ツール、データのサイロ化は、データ作成から、処理、分析、最後のアーカイブと破棄に至るまでのデータライフサイクル管理の妨げとなっています。異なるシステムやツールで管理されるデータ間の連携不足、データフォーマットの非互換性、メタデータ管理の欠如に起因するこの状況は、データガバナンスの機能不全を示しています。これにより、IT部門では効率的なデータ管理が不可能になり、データ重複の発生、無駄なデータ(コールドデータや不要なコピー)、およびデータ不整合といったデータ管理上の課題を悪化させています。これは、データストレージコストの増大、データ処理の非効率性、およびデータ分析結果の信頼性低下に直接繋がります。Intelligent Data Platformはこうした障害を取り除き、あらゆる場所からのデータ収集・統合によるデータの統合的な可視化を実現します。データ重複排除機能、データ品質管理機能、およびデータ保護機能を提供することで、データ重複や不整合を解消しつつ、確実にデータを保護することが可能です。

急増するデータからの価値抽出:データ統合とアクセス性の重要性
ビッグデータのメリットが得られるのは、取得したデータを最適な場所に移動して統合し、アナリスト、データサイエンティスト、アプリケーションが容易にアクセスできるデータアクセス性が確保された場合に限られます。モノのインターネット (IoT) デバイスなどから、多様な形式、高頻度でゼタバイト規模にまでデータが増大する状況は、これらの大量データの取り込み、保存、処理におけるビッグデータ処理の技術的課題を提起しています。適切なデータを適切な場所に適切なタイミングで移動するという作業は、データ鮮度、データレプリケーション、データ転送速度、およびデータセキュリティといったデータ管理の側面からこれまで以上に重要かつ困難なものとなっています。急増するデータから価値を抽出するためには、効率的なデータ統合パイプラインの構築と、分析に必要なデータへの迅速なアクセス性の確保が不可欠です。

Webデータコネクタ:多様なWebデータソースからのデータ統合機能

Tableau Web データコネクタ SDK を使用することで、既存のデータ接続機能では対応できない、HTTP 経由でアクセス可能な多様な Web ベースのデータソース(内部 Web サービス、JSONデータ、REST API など)からデータを収集し、Tableau 環境に取り込むためのデータ統合インターフェースを構築できます。これにより、セルフサービス分析のユーザーは、これらの外部データを活用して、ビッグデータ分析における分析対象データを拡充することが可能になります。

規模に応じたデータインタラクション:スケーラブルなデータ処理と分析能力
Tableau は、ユーザーがデータ量や種類の規模に関わらず、そのすべてのデータにアクセスし、他のデータソースと統合し、データからインサイトを迅速に入手できることを目指しています。これは、大量かつ多様なデータに対するスケーラブルなデータ処理と分析能力の提供という目標を掲げていることを意味します。ビッグデータを使用したセルフサービスのビジュアル分析を可能にするため、Tableau は Hyper データエンジンを含むいくつかの先端技術にデータプラットフォームの技術開発投資を行っています。

Hyper データエンジン:高性能インメモリデータ処理エンジンの評価
Hyper データエンジンは、大規模または複雑なデータセットの迅速な分析に役立つ、Tableau のパフォーマンスに優れたインメモリデータ処理エンジンテクノロジーです。独自のダイナミックコード生成と最新の並列テクニックを活用し、最新のハードウェアのパフォーマンスを最大限に引き出す点は、データ処理速度(抽出作成速度データで最大 3倍、クエリ実行速度データで 5倍)の向上というデータ指標の改善に具体的に示されています。Hyper は、速度の遅いデータソースからデータを抽出してインメモリデータエンジンに取り込むことで、データキャッシングおよび処理高速化機能を提供し、分析パフォーマンスを向上させることができます。

ハイブリッドデータアーキテクチャ:データアクセスモードの最適化戦略
Tableau は、データソースにライブで接続するモード、またはデータ(またはそのサブセット)をメモリ内に取り込むモードという、ハイブリッドデータアーキテクチャを提供します。ユーザーは、データの鮮度要件やデータ処理要件に応じて、これらのデータアクセスモードを柔軟に切り替えることができます。データアクセスへのハイブリッドアプローチは、ユーザーにとってデータ活用の柔軟性を向上させるほか、データの鮮度とパフォーマンスという異なるデータ処理要件間のトレードオフを管理し、クエリパフォーマンスの最適化にも役立ちます。

VizQL 技術:データ探索・可視化プロセス効率化への貢献
Tableau の中核にあるのは、インタラクティブなデータビジュアライゼーションによってデータの理解を促進する特許取得済みテクノロジー VizQL です。これは、データ探索と分析サイクルを加速する強力な技術です。従来の分析ツールでは、行と列のデータを分析し、表示するデータのサブセットを選択し、選択したデータを表に整理した後、その表からグラフを作成するという、複数のデータ操作およびデータプレゼンテーション手順が必要でした。しかし VizQL ではそのような手順が不要であり、データをすぐに視覚化できるため、データを分析しながら瞬時に結果を視覚的に確認できます。これは、データハンドリングの効率化と直感性の向上を大きく促進します。VizQL により、データを無制限に探索し、その結果を最適に表す視覚化を実現できることは、データに基づく仮説検証と視覚的データ表現の柔軟性を提供します。また、「元に戻す」機能に制限がないため、データ探索における試行錯誤が容易になります。このビジュアル分析サイクルで、ユーザーは作業を進めるにつれてデータに関する理解を深めることができ、必要に応じてデータを追加して最終的により詳細なインサイトを獲得できるという、発見的なデータ探索と段階的な知見獲得を可能にします。これは、ユーザーエクスペリエンスを向上させるだけでなく、すべてのスキルレベルのユーザーにとって、コードを記述してダッシュボードを作成するよりもデータ分析が使いやすいものになっています。

Tableau を使用すれば、実際にリアルタイムでデータセットを操作し、分析できるため、データの鮮度が高い状態でのデータ分析が可能であり、変化するビジネス状況への迅速な対応に必要なリアルタイムデータ分析能力を提供します。

ビジョンから価値へ:クラウドにおけるデータ戦略構築とデータに基づくビジネス価値創出

クラウド環境に構築された適切なエンドツーエンドのデータ戦略は、データからより多くの価値を引き出すための基盤となります。これは、クラウドの提供するスケーラブルで多様なデータサービス(データ収集、統合、処理、分析、活用に関するサービス)を利用することで、データライフサイクルの各フェーズを効率化し、より深いインサイトや予測モデル、自動化機会といったデータに基づくビジネス価値を創出できることを意味します。このようなデータに基づくビジネス価値は、より適切で迅速な意思決定、生成AIの戦略的な活用、そしてビジネス全体の最適化といった具体的な成果をもたらします。エンドツーエンドのデータ戦略は、データ生成から最終的な意思決定・活用に至るまでのデータライフサイクル全体をクラウド上で統合的に管理・最適化するためのデータガバナンスとデータマネジメントのフレームワークとして機能します。

AWSは、お客様のビジネス上の課題やクラウドジャーニーの段階にかかわらず、イノベーションを加速しビジネス成果をデータに基づいて促進するのに役立つ、包括的かつ統合的なデータおよびAIツール群をデータサービスポートフォリオとして用意しています。AWSのデータサービスを活用することで、以下が可能になります。

データから価値を生み出す: 生成AIやビジネスインテリジェンス (BI) など、特定のユースケースに合った非常に包括的なデータツール群を使用して、データから価値を生み出します。AWSは、特定のデータ分析要件やAI活用シナリオに対して、最適なデータサービスを選択・組み合わせて利用することで、データ投資のROIを最大化できるよう、ユースケースに適したコストパフォーマンスで必要なすべてのツールを提供できるよう継続的にイノベーションを行っています。これにより、データ量、データソース、分析ニーズの変化に合わせてデータ基盤および利用サービスを柔軟に拡張・適応できるデータ基盤のスケーラビリティと柔軟性を持つ、お客様と共に成長するデータ戦略を構築できます。
データサイロを排除することで、ビジネスの全体像に基づいた意思決定が可能: 異なるデータソースに分散したデータを統合し、組織全体のデータ資産に対する統合的なデータビューを提供することで、データサイロを排除します。AWSを使用すると、データがオンプレミス、クラウド、あるいはエッジといったどこにあっても、多様なデータソースへのデータアクセス機能とデータ統合・処理の容易さにより、すべてのデータに簡単に接続して操作できます。これにより、ビジネスに対する理解を深め、データに基づいた予測(予測モデル構築、時系列分析など)を立てることが可能になります。
すべてのデータを連携することで、イノベーションを加速: チームが必要なデータを見つけ(データカタログ、メタデータ検索機能の活用)、アクセスし(データアクセス制御による認証・認可)、共有できれば(データ共有機能)、迅速かつ安全にコラボレーションを行い、新しいデータ活用アイデアの創出や分析プロジェクトを加速することで、イノベーションを推進できます。AWSが提供する徹底した保護とガバナンスは、データへのアクセスを許可するユーザーと、ユーザーがそのデータで実行できる操作(データ閲覧、分析、エクスポートなど)をデータに基づき制御できるデータアクセス管理およびデータ利用ポリシーの適用を可能にします。
TableauのODBCドライバーとビッグデータインターフェース連携の技術的評価
Tableauは、ビッグデータプラットフォーム(Hadoopなど)により提供されるSQLライクなデータインターフェースとSQLのやり取りに、ODBCプログラミング標準に準拠したドライバーを使用します。これは、多様なデータソースとのデータ接続の標準化と互換性確保のための技術的な仕組みです。ODBCを使用することで、SQL標準をサポートする任意のデータソースにアクセスでき、ODBC APIを実装できる点は、Tableauが幅広いデータソースからのデータ収集を可能にするデータ統合の柔軟性を技術的に実現していることを示しています。Hadoopプラットフォームは、Hive Query Language (HiveQL)、Impala SQL、BigSQL、Spark SQLなどの多様なデータアクセス言語インターフェースを持っています。Tableauは、最高の分析パフォーマンスを得るために、生成するSQLクエリをチューニングし、集計やフィルターといったSQLオペレーションをデータソース側(ビッグデータプラットフォーム)で実行できるようにします。これは、データ処理の負荷をデータソースにオフロードし、データ転送量を最小限に抑えることで、データ分析のパフォーマンスを最適化するための技術的なアプローチです。

企業のデータ有効活用における阻害要因:データマネジメントおよびデータ活用能力に関する課題

今日、データはあらゆるアプリケーション、プロセス、ビジネス意思決定の中心にあり、新たな利用体験を生み出す原動力となり、イノベーションを発展させるインサイトを促進するポテンシャルを秘めています。しかし、データからビジネス価値を引き出す適切なデータ戦略を導入することは容易ではありません。データコンサルタントの診断によると、ビジネスリーダーはデータマネジメントおよびデータ活用能力に関する継続的な課題に直面しており、それがデータに基づいた最善の努力を妨げている状況が見られます。これらの課題には、以下の点が挙げられます。

データサイロの複雑性: 異なるシステムや部門に分散したデータの統合、データ形式・プロトコルの非互換性といったデータ統合の技術的・運用的な困難性に起因する、組織全体のデータ資産の可視性と分析性の欠如。
データ量の急激な増加: ペタバイトやエクサバイト規模のデータに対応できるデータストレージ、データ処理能力、データ転送速度といったデータインフラストラクチャのスケーラビリティとパフォーマンスに関する課題。
仕事に適したツールの不足: データ収集、加工、分析、可視化、共有に必要な機能を持つデータ分析ツールの不足、あるいは導入されたツールがデータ利用現場のニーズとミスマッチしている状況。
これらの課題は、データに基づいた迅速かつ正確な意思決定やイノベーション創出を妨げています。これらの課題と、具体的なビジネス価値をデータとして提供するという戦略的必要性が相まって、クラウドが提供するスケーラブルで多様なデータサービスを活用したクラウドでのデータ戦略構築が急務となっています。

データ戦略のROI:データドリブンカルチャー構築とデータ開放のデータ分析的メリット
データ戦略のROIは、データドリブンなカルチャー、すなわちデータに基づいた意思決定や行動を奨励する組織文化の構築によって最大化されます。データドリブンカルチャーは、データ活用によるビジネス成果(例:収益増加、コスト削減、効率向上)といったデータ投資の測定指標に直接影響を与えます。データがデータサイエンティストやスペシャリストといった特定の専門家以外にも開放され、組織中のユーザーがデータを安全に共有し、容易に利用できるようになることは、データ活用の民主化を促進します。このデータ活用の民主化は、データに基づいた意思決定の改善とイノベーションを促進するデータ分析的な効果をもたらします。さまざまな組織がAmazon Web Services (AWS) を活用してエンドツーエンドのデータ戦略を形にし、既にそのメリットをデータに基づいた成果として享受しています。

AWS活用企業のデータ活用成功事例:データ分析、AI、生成AIの活用によるビジネス成果
以下に、AWSクラウドデータ基盤上で、特定のビジネス目標達成のためにデータ分析、AI、生成AIを活用し、データに基づいた定量的な成果やビジネス変革を実現した企業の具体的な事例を挙げます。

United Airlines: 2万個を超えるセンサーを設置したインテリジェントな空港を実現し、センサーが生成するデータをリアルタイムで収集・分析することで、地上設備機能の最適化によるコスト削減(1億2,000万 USD)といったデータに基づいた運用効率化と財務的成果を達成しました。
ENGIE: AWSの統合データサービスを使用してCommon Data Hubを構築することでデータサイロを排除し、すべての部門が共通のデータフレームワークに平等にアクセスできるようにしたことによるデータ統合の成功事例です。その結果、生産性が向上し、風力発電所のエネルギー生産をデータに基づき最大化できました。
Pinterest: AWSを使用して包括的なデータガバナンス戦略(データアクセス管理、データ利用ポリシーなど)を導入し、チームがデータを使用して迅速に行動できるようになったことによる生産性向上を実現しました。加えて、顧客向けの新機能・利用体験設計におけるデータ分析・活用(例:過小評価されているクリエイターや企業を後押しするソリューション開発におけるデータ分析)を通じてイノベーションを促進しました。
Intuit: データとAIを組み合わせてビジネス成果とカスタマーエクスペリエンスを向上させている先進事例です。同社は、生成AIを活用した新しいアシスタント、Intuit Assistを開発しました。このアシスタントは、小規模企業、消費者金融、税金にわたって関連性の高いコンテキストデータセットを使用して、パーソナライズされた財務インサイトを顧客に提供するという、データ分析・生成AI活用シナリオを実践しています。

データの戦略的価値とデータ量の爆発的増加

The Economist誌が「石油が前世紀においてそうであったように、データは今世紀において成長と変化の原動力となっている」と述べているように、データは現代経済において成長と変革を牽引するデータ資産としての戦略的価値を有しています。石油が減少をたどる限られた資源である一方、ビジネスに利用できるデータは日を追うごとに増加しており、これは様々なソースからのデータ生成量、種類、速度の増加といったデータ量の爆発的増加として顕著に現れています。多くのテクノロジーサプライヤーがこのデータ急増の課題に取り組んでおり、最新のコンピューティングシステムは、データストレージ容量を大幅に増やし、データI/Oのスループットをわずか数年前のものと比較して1,000倍以上向上させるサーバーを搭載するなど、データインフラストラクチャと分析ツールの技術的進歩が目覚ましいです。オープンソースプログラムによって、誰もが分析ソフトウェアや機械学習ソフトウェアを利用できるようになり、IT部門はこれを活用して急増するデータを処理することで、データ収集、処理、分析、活用といったデータライフサイクルの管理とデータからのインサイト抽出に貢献しています。また多くのクラウドプロバイダーが、ほぼ無制限にデータを保存、処理できるサービスを提供しており、これはスケーラブルなクラウドデータ基盤としてデータ急増への対応を支援しています。

データの分散化とデータ移動の課題
データは、もはや特定のデータセンターだけに保存されるものではなく、新たな標準になりつつあるハイブリッドクラウドのあらゆる場所に存在しています。特にWeb、ソーシャルメディア、モバイルデバイス、センサー、スマートファクトリ、スマートシティ、車両、ネットワーク接続製品などのエッジにおいてデータが作成・使用されるケースが増加しており、これはデータ生成ポイントとデータ利用ポイントの多様化に伴うデータ分散化を示しています。データは、ユーザーや、分析ツールを搭載し求める情報を引き出すためのアプリケーションによる処理やアクセスのニーズに応じて移動することが必要であり、これはデータ鮮度、データ局所性、データ処理要件、データセキュリティ制約などを考慮したデータ移動戦略とデータ連携パイプラインの最適化が必要であることを示唆しています。

既存ストレージシステムのデータ管理課題
しかし、既存のストレージシステムと利用モデルは、このようなハイブリッドクラウド環境におけるデータ管理の複雑性に対応できるようには設計されていません。データコンサルタントの分析によると、以下のデータ管理課題が顕著に現れています。

可視性不足: 異なるストレージシステムに分散したデータの所在、アクセス状況、使用状況に関するデータカタログ、メタデータ管理、およびモニタリングデータの統合的な可視性が欠如しており、データ分析に基づいた最も効果的なデータ配置の決定に必要な情報が得られない状況です。
非効率なデータ配置とデータ再配置困難性: データアクセスパターンや利用頻度といったデータ分析に基づいた最適なデータ配置(ストレージ階層、ロケーション)が行えず、非効率なデータ配置の特定やデータ再配置によるアクセス効率改善が困難です。
運用・管理の複雑化: データ環境の複雑化に伴い、ストレージシステムの運用管理が複雑化し、障害やパフォーマンス低下が発生しても、問題の根本原因をデータ分析によって容易に特定して解決することが困難です。これにより、ダウンタイムやパフォーマンスが低下した状態が長引き、データアクセスの効率化よりも、問題解決に時間を費やすことになります。
容量計画の困難性: 従来の容量計画モデルがデータ量の変動や予測困難性に対応できず、ストレージ利用率データや将来予測データに基づいた最適な容量計画が困難です。これにより、容量不足によるビジネス機会の逸失(必要なデータへのアクセス不可、分析遅延など)や、必要と思われる(または必要ないかもしれない)場所に、念のためにストレージを提供するという過剰投資が発生しています。
サイロ化によるアジリティ低下: 従来のサイロ化された容量モデルは、異なるシステムやアプリケーション間でのデータ共有やデータ移動を妨げます。これはデータ活用の柔軟性や、データに基づいたビジネスプロセスの迅速な変更を阻害するアジリティ低下の原因となります。