最近の人工知能 (AI) の開発における大きな飛躍 (ChatGPT やその他の生成 AI アプリケーションを思い浮かべてください) は、多くの疑問を引き起こしています。仕事とビジネスの未来はどうなるでしょうか? AIは人類に存続の脅威をもたらすのでしょうか?現在、ニュースで AI に関する議論が行われない日はほとんどありません。
偽情報が社会に及ぼす悪影響は、ソーシャルメディアが現在可能なものよりも数倍に拡大する可能性があります。致死性の新たな化学兵器が開発される可能性がある。
これにより、政府や社会は AI を規制する差し迫った必要性を認識するようになりました。欧州連合は、AI 行動規範を 2 倍の速さで起草したいと考えています。世界最大手のテクノロジー企業の本拠地である米国の議員らと協力してこれを行う予定だ。
「必要性の重要性が高まっていることを考慮すると、
AI によって生み出されるリスクと、AI によってもたらされるより良い評価と計画の機会を評価および計画するためには、専門職全体がスキルを向上させ、これらを受け入れて理解することが重要です。
新しいテクノロジーとそれを倫理的に導入する方法について」と、貴族院特別委員会の兵器システム委員会の委員であるティム・クレメント・ジョーンズ卿は言います。
組織は、たとえばバイアスに汚染された洞察によって誤った情報を与えられることを避けるために、AI によって生成されたデータをセンスチェックする必要があります。 AI アプリケーションの根底にある仮定やアルゴリズムに疑問を持たずに依存するのではなく、常に疑問を抱く必要があります。リーダーに信頼できる情報を提供することは、現代のリスク専門家にとって重要な戦略的要件です。
序章
AI は、リスク専門家が仕事を脅かすのではなく、戦略的イネーブラーとして組織に大きな価値をもたらすことができるように支援します。そして、AI に関する倫理的リスクやその他のリスクに対する懸念が高まるにつれ、AI の必要性がさらに高まるでしょう。
人間の意思決定と監視、リスク専門家が担うべき役割。
リスク専門家は、この新たな状況において引き続き重要な役割を果たしますが、リスク専門家は正しい未来に投資する必要があります。
リスク専門家の新たな役割
イノベーションを抑圧しない精神で、
AI にはこれまでかなりの自由が与えられてきました。しかし、ジェフリー・ヒントンやヨシュア・ベンジオなどのコンピューター科学者であるAIの「ゴッドファーザー」たちは、AIの無制限の急速な発展の危険性を認識し、自分たちの仕事を今どのように後悔しているかを次々と名乗り出ている。
AI は社会に存在する偏見を永続させる可能性を秘めています。 「悪者」がAI開発を掌握する可能性がある。
0 件のコメント:
コメントを投稿