はじめに
皆さんこんにちは。ACS事業部亀崎です。 私は今KubeCon + CloudNativeCon 2025 EU現地参加のためにロンドンに来ております。
昨年は参加していなかったので2023年との比較になりますが、今回のKubeConはAIに関するセッションがいちだんと増えたように思います。AIといっても、その実行環境や何が実現できるかというAI本体の話だけではなく、Observabilityやセキュリティ、ガバナンスといった実際に運用していくために必須となっていく部分のセッションが多い気がしています。
今回はそんな運用に必須となる要素の1つである「Redefining Access Control: Scaling Policy as Code for Humans and AI Agents」というセッションの内容を簡単にご紹介しようと思います。
アクセスコントロールの必要性
通常のシステムでも同様ですが、AIを利用する場合においてもアクセスコントロール(FGA: Fine Grained Authorization / 詳細なアクセスコントロール)が重要になります。
アクセスコントロールは以下の3要素を考慮して決定します。こうした点を考慮しないとデータ漏洩等に発展してしまいます。
- 誰が
- どこに(どんなデータに)
- どういった行為を
AIシステムにおけるアクセスコントロールのチェックポイント
では実際にはどういった処理で実施するべきでしょうか。 AIシステムにおいては以下のような点を考慮する必要があります。
Prompt Filtering
まずPromptです。System PromptやUser Promptが適切なものなのか、ポリシー上実行してはいけない内容が含まれていないかを実行時リアルタイムでチェックします。
RAG Data Protection
多くの場合、組織内データを活用するRAGを利用されると思います。こうしたデータについても、利用者がアクセスしてよいのかどうかを注意深くチェックします。
Secure External Access
最近はAI Agentといったものも注目され、AIが外部システムにもアクセスするというケースが増えていると思います。 こうしたケースではAIから外部システムにアクセスする際の認証情報も適切なものなのかといった点もチェックが必要です。
Response Enforcement
最後に応答時の内容の確認です。たとえば本来は含まれてはならない個人情報などがないか、不適切な言葉が含まれていないかといった、ポリシーなどとも合わせてチェックします。
まとめ
こうした処理はPoC(コンセプト検証)の初期段階では必要のないことかもしれません。 しかし実際に運用するシステムとして考えた場合、本来実施しなければならないアクセスコントロールが実現できるのかといったことは重要な要素であり、早期に検証しておくことが重要です。
ぜひ「Permission-first」なデザインでAIシステムの導入検討を進めていただきたいと思います。