「エージェント型AIのためのモデルAIガバナンス・フレームワーク(MGF)は、組織に対し、エージェント型AIのリスクと、それらのリスクを管理するうえで新たに確立されつつあるベストプラクティスを体系的に示します。リスクが適切に管理されれば、組織はより高い確信をもってエージェント型AIを採用できます。MGFは、社内でAIエージェントを開発する場合でも、第三者のエージェント型ソリューションを利用する場合でも、エージェント型AIの導入を検討する組織を対象としています。
既存のモデル・ガバナンス・フレームワークを踏まえ、エージェントに関して組織が考慮すべき主要なポイントを、次の4分野で整理しました。
1. リスクを事前に評価し、境界を設ける
組織は、エージェントに由来する新たなリスクを織り込むように、社内の体制とプロセスを適応させるべきです。その要は、まずエージェントの行為がもたらすリスクを理解することです。これは、エージェントが取りうる行為の範囲、その行為の可逆性、エージェントの自律性の水準といった要因に依存します。
これらのリスクを早期に管理するため、組織は、計画段階で適切な境界を設計することにより、エージェントの影響範囲を制限することが考えられます。たとえば、エージェントのツールや外部システムへのアクセスを制限することが挙げられます。
また、エージェントに対する堅牢なアイデンティティ管理やアクセス制御を確立し、エージェントの行為を追跡可能かつ制御可能にしておくことも重要です。
2. 人間に実質的な説明責任を持たせる
エージェント型AIの導入に「ゴーサイン」が出た後は、組織は人間の説明責任を確保する措置を講じるべきです。しかし、エージェントの自律性により、従来の静的なワークフローに結びついた責任分担が複雑になる可能性があります。さらに、エージェントのライフサイクルのさまざまな部分に複数の関与者が関わることで、説明責任が拡散するおそれもあります。
したがって、組織内外(外部ベンダーを含む)の利害関係者の責任を明確に定義しつつ、アダプティブ・ガバナンスを重視することが重要です。これにより、技術の進化に伴う新たな動向を迅速に把握し、アプローチを更新できるように組織を整備します[…]。
3. 技術的管理策とプロセスを実装する
組織は、エージェントのライフサイクル全体にわたり技術的手段を実装することで、AIエージェントの安全かつ信頼できる運用を確保すべきです。開発段階では、プランニング、ツール、そして成熟途上のプロトコルといった新たなエージェント構成要素に対する技術的管理策を組み込み、これらの新しい攻撃面から生じるリスクの増大に対処する必要があります。[…]
4. エンドユーザーの責任を可能にする
エージェントの信頼できる導入は、開発者のみに依存するものではなく、エンドユーザーが責任を持って利用することにもかかっています。責任ある利用を可能にするための大前提として、ユーザーにはエージェントの行為の範囲、データへのアクセス範囲、そしてユーザー自身の責任について周知すべきです。
また、組織は、従業員が人間とエージェントの相互作用を適切に管理し、効果的な監督を行えるように必要な知識を身につけるための研修を重ねて提供することを検討すべきです。その際、従業員の専門性や基礎的なスキルを維持することも重視します。」
IMDA

0 件のコメント:
コメントを投稿