MLシステムを保護するための説得力のある理由として、マイクロソフトが28社を対象に実施した調査では、業界の実務者のほとんどが敵対的機械学習(ML)についてまだ理解していないことが明らかになりました。28社のうち25社は、MLシステムを保護するための適切なツールを導入していないと回答しています。さらに、これらの企業は明確なガイダンスを求めています。準備不足は小規模組織に限ったことではなく、フォーチュン500企業、政府機関、非営利団体など、多岐にわたる組織に及んでいることがわかりました。顧客はAIシステムのセキュリティ保護の必要性を認識していますが、その方法がわからないのです。このホワイトペーパーは、組織がAIシステムのセキュリティ体制を評価するための第一歩です。しかし、組織が従うべき新たなフレームワークを追加するのではなく、既存のセキュリティリスク評価フレームワークに簡単に組み込める形でコンテンツを提供することを目指しました。このホワイトペーパーには3つの目標があります。
• AIシステムのセキュリティに関する包括的な視点を提供する。 AIシステムのライフサイクルの各要素、すなわちデータ収集、データ処理、モデルの展開について、実稼働環境において検証しました。また、AIサプライチェーンに加え、AIシステムに関連するバックアップ、リカバリ、コンティンジェンシープランニングに関する管理策とポリシーも考慮しました。
• 重要なAI資産に対する脅威と、それらを保護するためのガイダンスを概説します。エンジニアとセキュリティ専門家を直接支援するため、AIシステム構築プロセスの各ステップにおける脅威ステートメントを列挙しました。次に、AIシステムにおける既存のプラクティスを補完し、強化する一連のガイドラインを提供します。
MITは、AIリスク軽減策を体系化する、これまでにない最も強力なツールの一つをリリースしました。
📘 内容:
「AIリスク軽減策のマッピング」は、MIT AIリスク・リポジトリ・インデックス・チームによる2025年7月の最新レポートです。これは、13の主要なガバナンスおよび安全性フレームワークから収集された、831の実際のAIリスク軽減策を体系的にエビデンススキャンしたものです。
その結果、AIガバナンスコミュニティに明確さ、整合性、そして実行可能性をもたらすように設計された、23のパートからなる軽減策分類が生まれました。
これは、4つの主要領域に分かれており、軽減策の統一言語に最も近いものです。
ガバナンスと監督管理
技術とセキュリティ管理
運用プロセス管理
透明性と説明責任管理
🔍 これが重要である理由:
現在、AI関係者は分散しています。政策立案者、研究機関、そしてバイヤーは、互いに意見が食い違っています。
このタクソノミーは、ライフサイクルの段階、リスクカテゴリー、そして組織の役割に合わせて緩和策を整合させることで、ノイズを排除します。
注目すべき洞察:
テストと監査は、すべての文書の中で最も頻繁に言及されている緩和策の種類です。
モデルの整合、内部告発者保護、そして利益相反ルールは、現在の実践では未整備のままです。
LLMは抽出を支援するために使用されていましたが、依然として人間による監視が必要であり、AIガバナンス自体におけるAIの限界を浮き彫りにしています。
💡 AIポリシーの設計、監査の実施、あるいは大規模なモデルガバナンスの構築を行っているなら、これは必読です。
さらに、MITはこのタクソノミーをAirtable形式で提供しており、組織のリスクプログラムで直接使用できます。
このガイドは、基本的なクエリの枠を超え、より効果的な意思決定中心のリスクマネジメント(RM2)を可能にする、プロンプトエンジニアリングへの様々な高度なアプローチを紹介・探求することを目的としています。
ここでは、シンプルなプロンプトを反復的に改良することで精度と関連性を向上させる基礎的な手法である、基本的なゼロショットプロンプト最適化について説明します。この手法は良い出発点となりますが、複雑なシナリオへの対応には不十分な場合が多くあります。このガイドを読み進めていくと、より高度な手法が基本的なゼロショットプロンプトを大幅に上回る方法を学ぶことができます。
連鎖ゼロショットプロンプトは、複雑なクエリを相互に関連する一連のプロンプトに分解します。この手法により、特に複雑な意思決定の文脈において、各応答を体系的に構築して分析を深めることで、よりきめ細かなリスクの探究が可能になります。
少数ショットプロンプトは、厳選された少数の例に基づいてモデルを導き、RM2の原則に沿った出力を生成する強力なアプローチです。この手法は、モデルの応答が適切であるだけでなく、組織の意思決定中心のニーズに合わせてカスタマイズされていることを保証する上で特に効果的です。
このガイドでは、複雑なリスクに関する議論を管理する上で重要な、複数のやり取りやRAGにわたって会話の連続性を維持するコンテキストメモリの埋め込みについても説明します。メモリを埋め込むことで、モデルは以前のやり取りに基づいて構築できるため、より一貫性があり情報に基づいた出力が得られます。
次に、モデルが推論プロセスを段階的に概説するように促す思考連鎖プロンプティングについて学習します。この手法は、リスク分析の透明性と深度を高め、意思決定のあらゆる側面を徹底的に検討できるようにします。
自己一貫性チェックは、モデルの出力の信頼性を向上させる方法として導入されています。モデルは自身の応答を相互参照することで矛盾を減らし、より正確な洞察を提供できます。これは、ハイステークスリスク管理において重要な機能です。最後に、このガイドでは、LLMパラメータ調整について解説します。これは、様々なモデルパラメータを調整して応答を微調整する高度な手法です。これにより、モデルの出力をより詳細に制御できるようになり、正確かつ一貫性のある出力が得られます。