私たちは、新たな深刻な危害をもたらす可能性のあるAIの能力が限られていると考えています。最前線のAI能力の有益な利用を安全に解放するために、私たちは特に慎重に行動し、これらの分野における深刻な危害のリスクを十分に最小限に抑えるための安全策を実施します。これを実現するために、私たちは以下のことを行います:
• 焦点を決定する – 私たちは、全体的なリスク評価を使用して、どの最前線の能力カテゴリを追跡またはさらに研究するかを決定し、深刻な危害のリスクの有意な増加に関連する能力の閾値レベルを定義します。
• 深刻な危害のリスクに関連する能力を測定する – 私たちは、モデルを展開する前および開発中に、最前線の能力評価を通じて範囲内のモデルを実行し、モデルの能力の全範囲を測定します。私たちの能力引き出しの取り組みは、深刻な危害のリスクの有意な増加を可能にする能力の閾値レベルを検出するように設計されています。
• 深刻な危害からの保護 – 私たちは、展開の文脈において深刻な危害が実際に発生する可能性を評価し、私たちの安全策を考慮に入れた脅威モデルを使用します。関連するリスクが十分に最小限に抑えられるまで、高い能力の閾値に達するモデルを展開しません。開発中のモデルがクリティカルな能力の閾値に達した場合、展開計画に関係なく、開発中の関連リスクを十分に最小限に抑えるための安全策も要求します。
• 信頼を築く – 私たちは、これらの取り組みを通知し、私たちのコミットメントを果たし、リスクを効果的に管理していることに対する信頼を築くために、OpenAI内外の専門家と関与します。
0 件のコメント:
コメントを投稿