GTC LOGO

Join Fortanix at NVIDIA GTC 2026, San Jose.

Know More

エージェント型AIがエンタープライズのセキュリティ戦略と出会う――でも、それはあなた向け?

Kristina
Kristina Avrionova
Oct 27, 2025
4mins
Share this post:
is-agentic-ai-part-of-your-security-strategy

2023年には生成AIが大流行しましたが、今や企業のリーダーたちが口にするのは「エージェント型AI」です。答えを出すだけでなく、その答えに基づいて行動するシステムのことです。顧客対応の自動化から業務オペレーションの効率化、複雑なタスクの管理まで、次世代のAIには大きな可能性があり、業界横断でテックリーダーたちが注目しています。

ただし、落とし穴があります。

エージェント型AIが成功するのは、既存のセキュリティおよびコンプライアンスのアーキテクチャに新たなリスクを持ち込んだり、既存のコントロールを損なったりすることなく適合できる場合に限られます。

本記事では次の点を掘り下げます。

  • エンタープライズの文脈でのエージェント型AIの真の意味
  • なぜ「信頼」が導入の最大の障壁になるのか
  • 多くの組織が見落としている隠れたセキュリティギャップ
  • 信頼できるエージェント型AIの土台を築くには何が必要か
  • 現在のセキュリティ体制が準備できているかどうかの見極め方

企業の足かせになっているものは何か、そして実践で機能する「トラスト・ファースト」アプローチがどう見えるのかを、わかりやすく解説します。

エージェント型AIとは、結局何者か?

従来のAIが受動的だとすれば、エージェント型AIは能動的です。単にプロンプトに応じるだけでなく、ユーザーに代わって計画し、推論し、実行できます。たとえば複数のツールを連携させたり、複雑な意思決定ツリーを処理したり、業務システム横断でアクションをトリガーしたりします。

エンタープライズにとって、エージェント型AIは次のことを可能にします。

  • 個々のステップにとどまらず、業務プロセス全体をエンドツーエンドで自動化する。
  • 具体的な文脈に基づいて従業員の意思決定を支援する。
  • 過去の結果から継続的に学習し、将来のパフォーマンスを改善する。

この背景を踏まえれば、エージェント型AIが魅力的に映るのは当然です。人間の生産性を何倍にも高め、組織がこれまで以上に迅速に動けるようにしてくれるからです。

ただし、この力には本質的なリスクが伴います。AIが自律的に意思決定を行い、システムへアクセスし始めると、従来のペリメータ型セキュリティモデルでは不十分になります。

エンタープライズAI導入を停滞させる「見えない信頼ギャップ」

企業がエージェント型AIに慎重なのは、イノベーションが足りないからではありません。セキュリティの裏付けが足りないからです。

AIのパイロットが本番に進まない主因のひとつは、技術的な限界ではなく「信頼のギャップ」です。CIO、CISO、コンプライアンス責任者には、エージェント型AIが機密データを露出させたり、モデルを改ざんしたり、規制の境界を侵害したりしないという検証可能な確信が必要です。

このギャップの背後にある主な要因は3つあります。

1. 実行時のふるまいが見えない。 エージェント型AIは動的に動作するため、明示的にプログラムされていない形で機密データに触れたり、アプリケーションとやり取りしたりする可能性があります。実行時の可視性やアテステーションがなければ、それらの行為は事実上ブラックボックスです。

2. ガバナンスと監査証跡の分散。 ログがあっても複数システムに分散しがちです。単一の真正な情報源がなければ、コンプライアンスの証明も、インシデントの再現も困難です。

3. データとモデルの露出。 専有データや規制対象データで学習したモデルは、適切に保護されていなければ洞察が漏えいする可能性があります。信頼できる環境外で動作するモデルは、知的財産、企業秘密、個人データを露出させ得ます。

この継続的検証の欠如こそが、エンタープライズAIをパイロット段階に留める隠れたギャップです。実行時の信頼を証明できない限り、安全なスケールは不可能です。

データとAIを本当に守る鍵は「機密計算(Confidential Computing)」

機密計算は、ワークロードを使用中であっても暗号化したままにできる技術です。モデルを安全なエンクレーブ内で動作させ、クラウド管理者や内部不正など外部からの覗き見からデータと計算を遮蔽します。

多くの企業セキュリティフレームワークは、システムがデプロイされた時点で信頼が成立すると想定しています。しかしAIではそれでは不十分です。組織は、鍵やデータを解放する前に、コンピュート環境(CPU、GPU、メモリ)が検証済みで侵害されていないことを、継続的かつ監査可能な形で証明する必要があります。

機密計算の優れている点は、データとコードを安全なエンクレーブ外の誰からもアクセス不能にすることで、クラウド事業者、システム管理者、マルウェアから機密データを保護することです。これはAIにとって極めて重要であり、敏感なデータを露出させることなく、モデルの学習や推論を可能にします。

ゼロトラストが当たり前となった今、本当にAIのイノベーションを解き放つには、さらにいくつかのステップが必要です。

エージェント型AIには「信頼の土台」が不可欠

エージェント型AIはデータを「使う」だけでなく、「行動」に移します。だからこそ、従来のAIより高いレベルの保証が求められます。後付けではなく、最初から信頼を組み込む必要があります。

実践では次のような姿になります。

  • 合成アテステーション(Composite Attestation): CPUやGPUを含むAI環境のあらゆるコンポーネントが、その真正性と完全性を証明しなければなりません。合成アテステーションは、これらを連鎖させて統一的なトラストチェーンを構築します。これにより、モデルを実行する環境が侵害されていないことを確かめられます。
  • アテステーション連動の鍵リリース: 検証されていないシステムに暗号鍵、モデルの重み、データセットを決して渡してはいけません。ハードウェアとソフトウェアのスタックが検証済みで、ポリシー要件を満たしたときにのみ、機微資産へアクセスできるようにします。
  • 改ざん不能なログと統合ガバナンス: すべてのやり取り、モデル更新、鍵のリリースを改ざん防止型の台帳に自動記録します。統合された監査証跡により、コンプライアンスの証明や、問題発生時の原因究明が可能になります。
  • ポリシー執行とロールベース制御: 権限のスプロールを防ぐため、エージェント型システムは、誰(何)がどの条件でどのアクションを実行できるかを細かく定義したポリシーに従う必要があります。職務分掌、合議承認、リアルタイム監視が不可欠です。

これらは「仮定された信頼」ではなく、「デザインとしての信頼」に基づくAI環境を構成する要素です。

現行のデータセキュリティ戦略はエージェント型AIに追随できるか?

ここで本質的な問いです。あなたの企業のセキュリティ戦略は、エージェント型AIを支えられますか? それとも阻害してしまいますか?

既存の多くのセキュリティアーキテクチャは、静的なシステム向けに作られており、自律エージェント向けではありません。組織がつまずきがちな点は次のとおりです。

  • 非人間のアイデンティティや自動化されたワークフローを前提にしていない鍵管理システム
  • AIエージェントを一級の主体としてモデル化・制御できないIAMやガバナンスツール
  • 統一的なポリシー執行を欠いた、ツールやサービスの寄せ集めスタック

これらは導入を遅らせるだけでなく、事業運営、顧客からの評判、ひいては収益に損害を与え得る実リスクを生みます。環境の検証、ポリシーの執行、機密資産の管理ができなければ、企業は「見えない信頼」に依存するしかありません。

より強靭なアプローチは、率直な現状評価から始まります。着手時に自問すべき問いは次のとおりです。

  • 暗号鍵をリリースする前に、システムはハードウェアの完全性を検証できるか?
  • ポリシーはAPI層に限らず、すべてのコンポーネントに一貫して適用されているか?
  • AIの行為はライフサイクル全体にわたり、記録され、改ざん不能で、追跡可能か?

これらの問いのいずれかに「まだ」と答えるなら、あなただけではありません。多くの企業がこのギャップを埋める方法を模索しています。

企業がAIセキュリティ体制を進化させるには

幸い、エージェント型AIのワークフローを守るために、一晩で全てを作り替える必要はありません。最も賢明なのは、AI戦略と歩調を合わせてセキュリティアーキテクチャを進化させることです。

先進企業が実践していることは次のとおりです。

  1. 小さく始め、しかし正しく始める。 まずは機微でないデータの導入から始め、ガバナンスの枠組みを検証します。
  2. 機密計算を段階的に採用する。 まずCPUから着手し、その後セキュアエンクレーブをサポートするGPUへ拡大します。最高レベルのセキュリティで運用するには、データとAI処理に進む前に、検証可能な合成アテステーションが必要です。
  3. 鍵管理をモダナイズする。 アテステーションに基づくアクセス制御を有効化することを含みます。
  4. AIパイプライン全体でログを統合する。 目標は完全な可視性とトレーサビリティの確保です。
  5. AIポリシーを早期にコード化する。 エージェントが何にアクセスし、何を変更・自動化できるかを定義します。
  6. 既存のSIEMやコンプライアンスシステムと統合する。 AIの活動を広範なガバナンスの全体像に組み込めるようにします。
  7. 第三者監査を活用する。 信頼性を独立した形で証明するためです。

これらのステップにより、セキュリティやコンプライアンスを損なうことなく、AIの実験段階から信頼できる本番展開へと移行できます。

エージェント型AIのための「トラストレイヤー」を築く

エージェント型AIはエンタープライズのイノベーションにおける転機である一方、エンタープライズリスクにとっても同様です。成功を左右するのは「誰が最初に導入するか」ではなく、「誰が安全に導入するか」です。

データ、モデル、インフラにわたり検証可能な信頼を実証できる企業は、より速いスケール、規制要件の達成、自信を持ったイノベーションを実現できます。逆に、それができない企業は概念実証の段階から抜け出せません。

AIの野心をセキュリティとコンプライアンス戦略に整合させる方法を探っているなら、今こそ動くべき時です。

信頼できるエージェント型AIの実例を見てみませんか? こちらからお問い合わせいただくと、Fortanixがどのように、信頼を基盤としてゼロから設計された安全なオンプレミスAI基盤で、企業のイノベーションを解き放つ支援をしているかをご紹介します。

Share this post:
Fortanix-logo

4.6

star-ratingsgartner-logo

As of January 2026

SOCISOPCI DSS CompliantFIPSGartner Logo

US

Europe

India

Singapore

US:

4500 Great America Parkway, Ste. 270
Santa Clara, CA 95054

+1 408-214 - 4760|info@fortanix.com

Europe:

High Tech Campus 5,
5656 AE Eindhoven, The Netherlands

+31850608282

India:

UrbanVault 460,First Floor,C S TOWERS,17th Cross Rd, 4th Sector,HSR Layout, Bengaluru,Karnataka 560102

+91 080-41749241

Singapore:

T30 Cecil St. #19-08 Prudential Tower,Singapore 049712