概要:
バイアスリスクを評価する前に、AI が実際にどのような影響を及ぼすのか理解する必要があります。これらには明白なユーザーだけではありません。通常、関係者は次の4つのグループに分類されます:
直接のユーザー: AIシステムを積極的に使用する人々
間接のユーザー: システムと直接関わらずにAIの決定に影響を受ける人々
内部チーム: プロダクト マネージャー、主要な意思決定者、QAテスター、監査役、法務およびコンプライアンス
外部の当事者: 規制当局、擁護団体、コミュニティー組織、メディア
これらのグループの中には脆弱な立場にある人々や、トレーニングデータでほとんど表現されない例外ケースも含まれています。このボードはそれらすべてを体系的にマッピングし、誰も見落とさないようにサポートします。
それがあなたに何をもたらすか:
AIに関与する、またはその影響を受けるすべてのグループを特定する包括的な関係者マップを作成します。
脆弱な層にフラグを立て、トレーニングデータの代表性におけるギャップを見つけ、関係者をその役割に基づいて分類します: ユーザー、意思決定者、影響を受ける当事者、監督者。
このマップは、どこでバイアスリスクが最も高いかを評価するための基盤となります。
最も恩恵を受ける人々:
プロダクトマネージャー、データサイエンティスト、UX リサーチャー、AI システムを構築するクロスファンクショナルチーム。特に、人々の機会、財務、または福祉に影響を与える分野で働くチームにとって非常に価値があります。
使用方法:
最初のセッションに60分を確保してください。
すべてのカテゴリーにわたって関係者グループをブレインストーミングします。
脆弱な人々を特定します。
過小評価されているグループを特定し、ステークホルダーの状況と比較し、各グループがトレーニングデータにどれだけ現れているかを比較・記録します。
朗報 : ボード 1 のように再利用可能です。将来のプロジェクトでは、新しいグループをレビューして追加するのに20分しか必要ありません。
AI バイアス軽減ワークショップ シリーズ(ボード 1 〜 4)の一部。