内容:
バイアスのリスクを評価する前に、AIが実際に誰に影響を与えているのかを知る必要があります。それは単なる明白なユーザーだけではありません。関係者は通常、次の4つのグループに分けられます:
直接のユーザー: AIシステムを積極的に使用する人々
間接のユーザー: システムと直接的に関与せずにAIの決定に影響を受ける人々
内部チーム: プロダクト マネージャー、主要な意思決定者、QAテスター、監査者、法務およびコンプライアンス
外部関係者: 規制機関、支援団体、コミュニティー組織、メディア
これらのグループの中には、脆弱なグループもあります。トレーニングデータではほとんど表現されない特殊なケースも存在します。このボードは、これらすべてを体系的にマッピングし、誰も見落とされないようにします。
それが助けること:
あなたのAIと関わる、または影響を受けるすべてのグループを特定する包括的な関係者マップの作成。
脆弱な集団を特定し、トレーニングデータの表現のギャップを見つけ、関係者をその役割に応じて分類します:ユーザー、意思決定者、影響を受ける人々、監視者。
このマップは偏見リスクが最も高い箇所を評価するための基盤となります。
誰に最も恩恵がありますか:
プロダクトマネージャー、データサイエンティスト、UX リサーチャー、およびAIシステムを構築するクロスファンクショナル チーム。特に、人々の機会、財政、または福祉に影響を与える意思決定を行う分野で働くチームにとって価値があります。
使い方:
最初のセッションに60分を予定してください。
4つのカテゴリーすべての関係者グループについてブレインストーミングを行います。
脆弱な人々を特定するか
過小評価されているグループを特定する - 彼らのステークホルダー全体での規模を比較し、トレーニングデータでそれぞれのグループがどの程度表現されているかを比較&記録します。
良い知らせです: ボード 1 と同様に、再利用可能です。今後のプロジェクトでは、20 分の時間で新しいグループの見直しと追加ができます。
AI バイアス緩和ワークショップシリーズ(ボード 1 から 4)に含まれます。