目次
AI活用を加速するチューニング戦略:2026年のITトレンドと性能を引き出すデータ整理の力
2026年、AIは企業や組織の中核的な技術として定着し、業務の自動化や意思決定の高度化に貢献しています。しかし、AIを導入しただけで成果が出るわけではありません。モデルの性能を最大限に引き出すためには、「チューニング(Tuning)」という重要な工程が欠かせないのです。
本記事では、AIとデータ整理の観点から、チューニングの役割と2026年のITトレンドを踏まえた最適化のアプローチについて解説します。
チューニングとは何か?
チューニングとは、AIモデルの精度や効率を向上させるために、さまざまなパラメータや構成要素を調整する作業のことです。主に以下のような種類があります。
- ハイパーパラメータチューニング:学習率、バッチサイズ、木の深さなどの設定を最適化
- 特徴量エンジニアリング:入力データの加工や選定によってモデルの学習効率を向上
- モデル構造の最適化:層の数やノード数、活性化関数の選定などの調整
- 正則化の調整:過学習を防ぐための制約の強さを調整
- 推論パフォーマンスの最適化:モデルの軽量化や量子化による処理速度の向上
これらのチューニングを適切に行うことで、AIモデルはより高精度かつ高速に動作するようになります。
なぜ今、チューニングが重要なのか?
AIの導入が進む中で、以下のような課題が多くの現場で見られます。
モデルの精度が期待値に届かず、業務に活かしきれない
処理速度が遅く、リアルタイム性が求められる業務に適さない
過学習により、新しいデータに対応できない
モデルが複雑すぎて、運用や保守が困難になる
クラウド利用料や計算資源の消費が想定以上に高い
これらの課題は、チューニングによって大きく改善できる可能性があります。つまり、チューニングは「AIを実用レベルに引き上げるための鍵」なのです。
2026年のITトレンド:チューニングを支える技術の進化
2026年のIT業界では、AIモデルのチューニングを効率化・自動化するための技術が進化しています。特に注目されているのが以下のようなトピックです。
- AutoMLの高度化:ハイパーパラメータの自動探索とモデル選定の自動化
- ベイズ最適化やグリッドサーチの高速化:探索効率を高めるアルゴリズムの進化
- ニューラルアーキテクチャサーチ(NAS):最適なモデル構造を自動で設計
- 軽量モデルの普及:DistilBERTやMobileNetなど、精度と軽さを両立するモデルの活用
- MLOpsとの連携:チューニング結果を継続的に反映し、運用に組み込む仕組みの整備
これらの技術により、チューニングは「職人技」から「戦略的な工程」へと進化しています。
データ整理がチューニングの効果を左右する
チューニングの効果を最大化するには、データの質が極めて重要です。なぜなら、どれだけパラメータを調整しても、入力データが整っていなければ、モデルは正しく学習できないからです。
たとえば:
ラベルの誤りがあると、学習が誤った方向に進んでしまう
特徴量のスケールが揃っていないと、学習が不安定になる
不要な特徴量が多いと、モデルが複雑化し、過学習のリスクが高まる
欠損値や外れ値が多いと、予測精度が低下する
こうした課題を防ぐには、データの前処理・正規化・特徴量選定・可視化といった整理作業が不可欠です。整ったデータは、チューニングの効果を最大限に引き出す“土台”となります。
実務での活用事例
たとえば、金融業界では、与信モデルの精度を高めるために、ハイパーパラメータの自動最適化と特徴量の選定を組み合わせたチューニングを実施。これにより、延滞リスクの予測精度が15%以上向上しました。
また、製造業では、異常検知モデルの推論速度が課題となっていたため、モデルの軽量化と量子化を行い、処理時間を70%以上短縮。リアルタイム監視への適用が可能になりました。
チューニングの課題と今後の展望
AIのチューニングには、以下のような課題も存在します。
パラメータの組み合わせが膨大で、探索に時間がかかる
精度と処理速度、モデルサイズのバランスを取るのが難しい
チューニング結果が再現しにくく、運用に落とし込みづらい
チューニングの過程がブラックボックス化しやすい
現場のニーズと技術的最適解が一致しないことがある
これらに対しては、AutoMLやMLOpsの導入、チューニングログの記録と可視化、評価指標の多軸化(精度+速度+コスト)などが有効です。
今後は、AIが自らチューニング戦略を立案・実行する「自己最適化AI」や、業界別の最適パラメータセットを提供する「チューニングテンプレート」の普及も期待されています。
まとめ:チューニングは“AIを磨き上げる最後の一手”
AIが社会の中核を担う時代において、チューニングは「性能を引き出すための最後の一手」です。そして、その効果を最大化するには、整ったデータと明確な目的意識、そして継続的な改善体制が不可欠です。
2026年のITトレンドを踏まえると、チューニングは単なる技術作業ではなく、「AIを現場で活かすための戦略的プロセス」として位置づけられています。AIと共に未来を築くために、今こそ「整えて、調整し、磨き上げる力」が求められているのです。
AI活用を支えるデータ管理戦略:2026年のITトレンドと信頼性を築く整理と運用の力
2026年、AIは企業や組織の中核的な技術として定着し、業務の自動化や意思決定の高度化に貢献しています。しかし、AIの性能や信頼性は、入力されるデータの質と整備状況に大きく依存します。そこで今、改めて注目されているのが「データ管理(Data Management)」の重要性です。
本記事では、AIとデータ整理の観点から、データ管理の役割と2026年のITトレンドを踏まえた実践的なアプローチについて解説します。
データ管理とは何か?
データ管理とは、組織内で扱うあらゆるデータを、正確かつ安全に収集・保存・整備・活用するための一連の活動を指します。主な構成要素は以下の通りです。
- データガバナンス:ルールやポリシーの策定と運用
- データ品質管理:正確性、一貫性、完全性の維持
- メタデータ管理:データの意味や構造、出所の記録
- データセキュリティとプライバシー:アクセス制御と保護対策
- データライフサイクル管理:生成から廃棄までの一貫した管理
- データ統合と共有:部門間やシステム間の連携と再利用
これらの管理が整っていれば、AIは信頼性の高い判断を下すことができ、組織全体のデータ活用力が向上します。
なぜ今、データ管理が重要なのか?
AIの活用が進む中で、以下のような課題が多くの組織で顕在化しています。
データの所在や意味が不明で、再利用が困難
部門ごとにデータが分断され、全体最適が図れない
データの誤りや欠損により、AIの精度が低下
プライバシーや法令遵守への対応が不十分
データの更新履歴やバージョンが管理されていない
こうした課題を解決するには、単なるデータの蓄積ではなく、「管理の仕組み」が必要です。
2026年のITトレンド:データ管理を支える技術と仕組み
2026年のIT業界では、AI活用を前提とした高度なデータ管理の仕組みが進化しています。特に注目されているのが以下のようなトピックです。
- データファブリックとデータメッシュ:分散データの統合とガバナンスを両立
- データカタログの普及:データの意味や関係性を可視化し、検索性と信頼性を向上
- マスターデータ管理(MDM):顧客や製品などの基幹情報を一元管理
- メタデータ自動生成とAI活用:データの文脈や構造を自動で記録・整理
- データオブザーバビリティ:データの流れや品質をリアルタイムで監視・可視化
これらの技術により、データ管理は「守るための仕組み」から「活かすための基盤」へと進化しています。
データ整理が管理の出発点
データ管理を成功させるには、まず「整えること」が不可欠です。なぜなら、整っていないデータは、どれだけ管理ルールを定めても、活用できないからです。
たとえば:
項目名や単位がバラバラだと、統合や分析が困難になる
メタデータが不足していると、データの意味や出所が不明になる
重複や欠損が多いと、AIの判断が不安定になる
データの更新頻度が不明だと、鮮度の低い情報が混在する
こうした課題を防ぐには、データの分類・正規化・クレンジング・バージョン管理といった整理作業が必要です。整ったデータは、管理のしやすさとAIの精度を同時に高める“共通資産”となります。
実務での活用事例
たとえば、医療業界では、患者データや診療記録が病院ごとに異なる形式で管理されていたため、AIによる診断支援が困難でした。そこで、データカタログとメタデータ管理を導入し、情報の統一と検索性を向上。結果として、診断精度と業務効率が大幅に改善されました。
また、小売業では、店舗・EC・物流の各部門で顧客データが分断されていたため、パーソナライズ施策が限定的でした。マスターデータ管理とAPI連携を整備したことで、全チャネルで一貫した顧客体験の提供が可能になりました。
データ管理の課題と今後の展望
データ管理には、以下のような課題も存在します。
データの所在や責任者が不明で、整備が進まない
管理ルールが形骸化し、実運用に活かされていない
データの増加に伴い、コストや複雑性が増大
組織内でのデータリテラシーに差があり、活用が偏る
ガバナンスと柔軟性のバランスを取るのが難しい
これらに対しては、データ戦略の明文化、データオーナーシップの明確化、教育と文化づくり、段階的な整備計画、AIによる自動管理支援などが有効です。
今後は、AIが自らデータの品質や構造を評価・修正する「自己整備型データ管理」や、業務ごとに最適化された「ドメインデータ製品」の普及も期待されています。
まとめ:データ管理は“AIを信頼に変える基盤”
AIが社会の中核を担う時代において、データ管理は「守るための作業」ではなく、「信頼を築くための基盤」です。そして、その信頼を支えるのが、整ったデータと明確なルール、そして継続的な改善体制です。
2026年のITトレンドを踏まえると、データ管理はAI活用の前提条件であり、組織の競争力と変革力を高める鍵となるでしょう。AIと共に未来を築くために、今こそ「整えて、守り、活かす力」が求められているのです。
AI時代のデータ流出対策:2026年のITトレンドと信頼を守る管理と整理の力
2026年、AIは企業や社会のあらゆる場面に浸透し、業務の自動化や意思決定の高度化に貢献しています。しかし、AIの活用が進むほどに、その裏側で深刻化しているのが「データ流出(Data Breach)」のリスクです。特にAIは大量かつ機微なデータを扱うため、ひとたび情報が漏洩すれば、企業の信頼や社会的信用に甚大な影響を及ぼします。
本記事では、AIとデータ整理の観点から、データ流出のリスクと2026年のITトレンドを踏まえた対策のアプローチについて解説します。
データ流出とは何か?
データ流出とは、本来アクセス権のない第三者に対して、個人情報や機密情報などのデータが漏洩することを指します。主な原因は以下の通りです。
- 人的ミス:誤送信、誤設定、USB紛失など
- 内部不正:従業員による意図的な持ち出しや漏洩
- サイバー攻撃:マルウェア、フィッシング、ゼロデイ攻撃など
- 設定不備:クラウドストレージのアクセス制御ミス
- AIの誤学習・誤出力:個人情報を含むデータを学習し、出力してしまうケース
これらのリスクは、AIの導入によってさらに複雑化・高度化しており、従来のセキュリティ対策だけでは不十分になりつつあります。
なぜ今、データ流出対策が重要なのか?
AIの活用が進む中で、以下のような背景からデータ流出対策の強化が求められています。
- AIが扱うデータの機密性が高まっている:医療、金融、個人行動履歴などセンシティブな情報が増加
- 生成AIの誤出力リスク:学習データに含まれる個人情報が出力される可能性
- クラウド利用の拡大:アクセス制御やログ管理の複雑化
- 法規制の強化:GDPR、個人情報保護法、AI規制法案などへの対応が必須
- サプライチェーンの拡大:外部委託先やパートナー企業からの漏洩リスク
つまり、AIを安全に活用するには、データ流出を前提とした「守りの設計」が不可欠なのです。
2026年のITトレンド:データ流出を防ぐ技術と仕組み
2026年のIT業界では、AI時代に対応したデータ流出対策の技術と仕組みが進化しています。特に注目されているのが以下のようなトピックです。
- ゼロトラストセキュリティ:すべてのアクセスを検証・記録する前提のセキュリティモデル
- データ暗号化と匿名化の高度化:保存時・通信時・学習時の多層的な保護
- AIによる異常検知:アクセスログや通信パターンから不審な挙動をリアルタイムで検出
- 機密データの分類と自動マスキング:個人情報や機密情報を自動で検出・保護
- セキュアMLOpsの導入:モデル開発・運用の各段階でのセキュリティ統制
これらの技術により、AIとデータを安全に運用するための“守りの基盤”が整いつつあります。
データ整理が流出リスクを減らす理由
データ流出の多くは、「どこに何のデータがあるか分からない」ことに起因しています。つまり、データが整っていないと、守るべき情報を特定できず、リスクが高まるのです。
たとえば:
ファイル名やフォルダ構成がバラバラで、機密情報の所在が不明
メタデータが不足しており、アクセス権限の設定が曖昧
古いデータが放置され、不要なリスクを抱えている
データの出所や更新履歴が不明で、誤って公開される
こうした課題を防ぐには、データの分類・タグ付け・アクセス制御・ライフサイクル管理といった整理作業が不可欠です。整ったデータは、「守るべきものを明確にする」ための第一歩です。
実務での活用事例
たとえば、医療機関では、患者データの管理が部門ごとに分断されていたため、アクセス制御が不十分でした。そこで、データカタログとメタデータ管理を導入し、機密性に応じた分類とアクセス制限を実施。結果として、内部からの情報漏洩リスクを大幅に低減しました。
また、製造業では、設計図や試作データがクラウド上に分散していたため、外部からの不正アクセスが懸念されていました。ゼロトラストモデルとAIによる異常検知を導入したことで、アクセスの可視化と即時対応が可能になりました。
データ流出対策の課題と今後の展望
データ流出対策には、以下のような課題も存在します。
セキュリティと利便性のバランスが難しい
全社的なデータ管理ルールが未整備
外部委託先やクラウドサービスとの責任分界が曖昧
AIモデルが学習した情報の追跡や削除が困難
セキュリティ対策が属人化し、継続的な運用が難しい
これらに対しては、データガバナンス体制の強化、セキュリティ教育の徹底、セキュアMLOpsの導入、AIによる自動監視と対応などが有効です。
今後は、AIが自らデータの機密性を判断し、アクセス制御やマスキングを自動で行う「自己防衛型データ管理」や、データ流出リスクをスコア化して可視化する「データセキュリティダッシュボード」の普及も期待されています。
まとめ:データ流出対策は“信頼を守る最後の砦”
AIが社会の中核を担う時代において、データ流出対策は「技術の問題」ではなく、「信頼の問題」です。そして、その信頼を守るには、整ったデータと明確なルール、そして継続的な監視と改善体制が不可欠です。
2026年のITトレンドを踏まえると、データ流出対策はAI活用の前提条件であり、組織の信用と持続可能性を守るための必須要素となるでしょう。AIと共に未来を築くために、今こそ「整えて、守り、信頼を築く力」が求められているのです。
AI活用を支えるデータ運用管理:2026年のITトレンドと継続的価値を生む仕組みづくり
2026年、AIは企業や社会のあらゆる場面に浸透し、業務の自動化や意思決定の高度化に貢献しています。しかし、AIの性能や信頼性を維持し、継続的に価値を生み出すためには、単なるデータの整備だけでなく、「データ運用管理(Data Operations Management)」の仕組みが不可欠です。
本記事では、AIとデータ整理の観点から、データ運用管理の役割と2026年のITトレンドを踏まえた実践的なアプローチについて解説します。
データ運用管理とは何か?
データ運用管理とは、データを「使い続ける」ための仕組みを整え、日々の業務の中でデータの品質・可用性・安全性を維持しながら、AIや分析に活用できる状態を保つ活動全般を指します。主な構成要素は以下の通りです。
- データパイプラインの構築と保守:収集・変換・保存・配信の自動化と監視
- データ品質のモニタリング:欠損、重複、異常値の検出と修正
- データ更新と同期の管理:リアルタイム性や整合性の維持
- アクセス制御と利用ログの管理:セキュリティと監査対応
- データライフサイクル管理:保存期間、アーカイブ、削除のルール整備
- 運用体制と責任分担の明確化:データオーナーと運用担当の連携
これらの運用が整っていれば、AIは常に最新かつ信頼できるデータをもとに判断を下すことができ、組織全体のデータ活用力が安定して向上します。
なぜ今、データ運用管理が重要なのか?
AIの活用が進む中で、以下のような課題が多くの現場で見られます。
モデルの精度が時間とともに劣化する(データドリフト)
データの更新が遅れ、リアルタイム性が損なわれる
データの不整合により、分析結果に誤差が生じる
データの出所や変換履歴が不明で、再現性が確保できない
データの削除やアーカイブが適切に行われず、セキュリティリスクが増大
こうした課題を防ぐには、データを「整える」だけでなく、「運用し続ける」ための仕組みが必要です。
2026年のITトレンド:データ運用管理を支える技術と仕組み
2026年のIT業界では、AI活用を前提とした高度なデータ運用管理の仕組みが進化しています。特に注目されているのが以下のようなトピックです。
- DataOpsの普及:データの開発・運用をDevOps的に管理する手法
- データオブザーバビリティ:データの流れや品質をリアルタイムで可視化・監視
- メタデータ駆動型運用:データの意味や構造をもとに自動で処理を最適化
- イベントドリブンパイプライン:データの変化をトリガーに自動処理を実行
- セキュアなデータ共有基盤:アクセス制御と監査ログを備えたデータ連携環境
- AIによる運用支援:異常検知や自動修復、パフォーマンス最適化の自動化
これらの技術により、データ運用管理は「手作業の保守」から「自律的な運用」へと進化しています。
データ整理が運用管理の基盤をつくる
データ運用管理の成功は、整ったデータに支えられています。なぜなら、整理されていないデータは、運用中にエラーや混乱を引き起こし、AIの判断にも悪影響を与えるからです。
たとえば:
データ形式が統一されていないと、パイプラインが停止する
メタデータが不足していると、処理ルールの自動化が困難になる
データの命名規則がバラバラだと、検索や再利用が非効率になる
更新履歴が追えないと、トラブル時の原因特定ができない
こうした課題を防ぐには、データの正規化・命名ルールの統一・メタデータ整備・バージョン管理といった整理作業が不可欠です。整ったデータは、運用管理の“見える化”と“自動化”を支える基盤となります。
実務での活用事例
たとえば、金融業界では、取引データのリアルタイム分析を支えるために、イベントドリブン型のデータパイプラインとDataOpsを導入。データの遅延や欠損を自動で検知・修正する仕組みにより、AIによる不正検知の精度と即応性が向上しました。
また、製造業では、センサーデータの整備と運用管理を強化し、異常検知モデルの再学習を自動化。データの更新頻度や品質を常に監視することで、モデルの精度を長期的に維持しています。
データ運用管理の課題と今後の展望
データ運用管理には、以下のような課題も存在します。
運用体制が属人化し、担当者の異動でノウハウが失われる
データの流れが複雑化し、全体像が把握しにくい
部門ごとに運用ルールが異なり、統一が難しい
データの増加に伴い、監視や保守の負荷が増大
AIモデルとデータの整合性を保つ仕組みが不十分
これらに対しては、運用ルールの標準化、データオーナーシップの明確化、DataOpsツールの導入、AIによる自動監視と修復、教育と文化づくりなどが有効です。
今後は、AIが自らデータの状態を監視・最適化する「自己運用型データ基盤」や、業務ごとに最適化された「運用テンプレート」の普及も期待されています。
まとめ:データ運用管理は“AIを持続可能にする力”
AIが社会の中核を担う時代において、データ運用管理は「一度整えたら終わり」ではなく、「継続的に整え続ける力」です。そして、その力を支えるのが、整ったデータと明確なルール、そして自動化された運用体制です。
2026年のITトレンドを踏まえると、データ運用管理はAI活用の持続性と信頼性を支える基盤であり、組織の競争力を高める鍵となるでしょう。AIと共に未来を築くために、今こそ「整えて、回し、育てる力」が求められているのです。
AI時代のデータ活用基盤戦略:2026年のITトレンドと価値創出を支える設計と整理の力
2026年、AIは企業や社会のあらゆる場面に浸透し、業務の自動化や意思決定の高度化に貢献しています。しかし、AIの性能や柔軟性を最大限に引き出すためには、単なるモデル開発だけでなく、「データ活用基盤(Data Utilization Platform)」の整備が不可欠です。
本記事では、AIとデータ整理の観点から、データ活用基盤の役割と2026年のITトレンドを踏まえた構築・運用のアプローチについて解説します。
データ活用基盤とは何か?
データ活用基盤とは、組織内外のさまざまなデータを収集・統合・蓄積・分析・可視化するための技術的・運用的な土台のことです。AIやBIツール、業務アプリケーションがデータを活用するための“共通の土壌”とも言えます。
主な構成要素は以下の通りです:
- データ収集・連携機能:API、ETL、ストリーミングなどによる多様なデータの取り込み
- データ蓄積基盤:データレイク、データウェアハウス、レイクハウスなどのストレージ設計
- データ整備・加工機能:前処理、正規化、クレンジング、マスターデータ管理など
- メタデータ・カタログ管理:データの意味や構造、出所を記録・検索可能にする仕組み
- アクセス制御とセキュリティ:権限管理、暗号化、監査ログなどの保護機能
- 分析・活用レイヤー:AIモデル、BIツール、ダッシュボードなどの接続先
このような基盤が整っていれば、データは「使える状態」で保たれ、AIの学習や推論、業務判断にスムーズに活用できます。
なぜ今、データ活用基盤が重要なのか?
AIの活用が進む中で、以下のような課題が多くの組織で顕在化しています。
データが部門ごとに分断され、全社的な分析が困難
データの整備や加工に時間がかかり、AI導入が遅延
データの信頼性や鮮度が不明で、判断に不安が残る
データの所在や意味が不明で、再利用が進まない
セキュリティやガバナンスが不十分で、リスクが高まる
こうした課題を解決するには、データを「集める」「整える」「使う」ための統合的な基盤が必要です。
2026年のITトレンド:データ活用基盤を支える技術と設計思想
2026年のIT業界では、AI活用を前提とした柔軟で拡張性の高いデータ活用基盤の構築が進んでいます。特に注目されているのが以下のようなトピックです。
- データレイクハウスの普及:柔軟性と整合性を両立した次世代ストレージアーキテクチャ
- データファブリックとメッシュアーキテクチャ:分散データの統合とガバナンスを実現
- イベントストリーミング基盤:リアルタイムデータの取り込みと処理を支援
- メタデータ駆動型設計:データの意味や関係性をもとに自動処理を最適化
- セキュアなデータ共有環境:社内外の連携を前提としたアクセス制御と監査機能
- AI対応型パイプライン:学習・推論に最適化されたデータフローの自動化
これらの技術により、データ活用基盤は「蓄積の場」から「価値創出の場」へと進化しています。
データ整理が活用基盤の信頼性を支える
どれだけ高度な基盤を構築しても、扱うデータが整っていなければ、AIも業務も正しく機能しません。つまり、データ整理は活用基盤の“信頼性の源泉”です。
たとえば:
項目名や単位がバラバラだと、統合や分析が困難になる
メタデータが不足していると、データの意味や出所が不明になる
データの重複や欠損が多いと、AIの判断が不安定になる
更新履歴やバージョンが管理されていないと、再現性が損なわれる
こうした課題を防ぐには、データの正規化・命名ルールの統一・メタデータ整備・バージョン管理といった整理作業が不可欠です。整ったデータは、活用基盤の“共通言語”となり、AIの精度と信頼性を高めます。
実務での活用事例
たとえば、製造業では、工場ごとに分散していたセンサーデータをデータレイクハウスに統合。AIによる異常検知や予知保全の精度が向上し、設備稼働率が大幅に改善されました。
また、小売業では、店舗・EC・物流の各部門で管理されていた顧客データを統合し、パーソナライズ施策を強化。データカタログとメタデータ管理を活用することで、部門横断でのデータ活用が可能になりました。
データ活用基盤の課題と今後の展望
データ活用基盤には、以下のような課題も存在します。
初期構築に時間とコストがかかる
データの整備や移行に多大な工数が必要
部門間でのデータ定義の違いが統合を妨げる
セキュリティと柔軟性のバランスが難しい
活用目的が曖昧で、基盤が“宝の持ち腐れ”になることも
これらに対しては、段階的な構築と評価、データ戦略の明文化、データオーナーシップの明確化、ガバナンス体制の整備、AI対応を前提とした設計思想の導入などが有効です。
今後は、AIが自らデータの構造や意味を理解し、最適な活用方法を提案する「自己最適化型データ基盤」や、業務ごとに最適化された「ドメインデータ製品」の普及も期待されています。
まとめ:データ活用基盤は“AIを動かす知のエンジン”
AIが社会の中核を担う時代において、データ活用基盤は「AIを動かすためのエンジン」であり、「価値を生み出すための土台」です。そして、その土台を支えるのが、整ったデータと柔軟な設計、そして継続的な運用体制です。
2026年のITトレンドを踏まえると、データ活用基盤の整備はAI活用の前提条件であり、組織の競争力と変革力を高める鍵となるでしょう。AIと共に未来を築くために、今こそ「整えて、つなぎ、活かす力」が求められているのです。