私たちは、Hugging Faceに掲載された約46万件のAIモデルカードを分析し、開発者がリスクをどのように報告しているかを調べました。そこからおよそ3,000件の固有のリスク記載を抽出し、AIモデル・リスクカタログを作成しました。さらに、MIT Risk Repositoryにおける研究者が特定したリスクや、AI Incident Databaseに記録された実世界のインシデントと比較しました。
開発者はバイアスや安全性といった技術的な問題に注目する一方、研究者はより広範な社会的影響を重視していました。両者とも、AIとの人間の関わりによって生じがちな詐欺や操作(マニピュレーション)にはあまり注意を払っていませんでした。
私たちの調査結果は、設計初期の段階から人とのインタラクションやシステム的リスクを考慮できる、より明確で構造化されたリスク報告の必要性を示しています。
0 件のコメント:
コメントを投稿