内容:
バイアスリスクを評価する前に、AI が実際に誰に影響を与えているのかを把握する必要があります。それはもちろん、あなたの明確なユーザーだけとは限りません。関係者は通常、次の4つのグループに分かれます:
直接ユーザー: AIシステムを積極的に使用する人々です
間接ユーザー: システムに直接は関わらないが、AIの決定によって影響を受ける人々です
内部チーム: プロダクト マネージャー、主要な意思決定者、QAテスター、監査担当者、法務およびコンプライアンス担当者です
外部団体: 規制当局、アドボカシーグループ、コミュニティー組織、メディアです
これらのグループの中には、脆弱な立場にある人々もいます。中にはトレーニングデータでほとんど表現されないエッジケースもあります。このボードは、それらの関係者を体系的にマッピングし、誰も見落とされないようにする手助けをします。
達成できること:
AIと接触したり影響を受ける全グループを特定する包括的な関係者マップを作成します。
あなたは脆弱な集団を特定し、トレーニングデータ表現におけるギャップを見つけ出し、関係者をユーザー、意思決定者、影響を受ける当事者、監督者として役割ごとに分類します。
このマップが偏見リスクの高い箇所を評価するための基盤となります。
最大の利益を享受する人々:
プロダクトマネージャー、データサイエンティスト、UX リサーチャー、AI システム構築を行うクロスファンクショナルチームです。特に、人々の機会、財政、または福祉に影響を与える決定を行う分野で働くチームにとって非常に価値があります。
使用方法:
初回のセッションには60分を確保してください。
すべての4つのカテゴリーにわたる関係者グループをブレインストーミングします
誰が脆弱であるかを識別します
規模を比較し、どれだけよく各グループがトレーニングデータに現れているかを比較&文書化します。
朗報 : ボード 1 同様、これも再利用可能になります。今後のプロジェクトでは見直しと新しいグループの追加にわずか 20 分で済みます。
AIバイアス軽減ワークショップシリーズの一部(ボード 1 から 4)。