Todos os templates

Mapeamento de Stakeholders de IA para Risco de Viés

Riley Coleman

242 Visualizações
2 usos
0 curtidas

Denunciar

Do que se trata:

Antes de poder avaliar o risco de viés, você precisa saber quem seu IA realmente afeta. E raramente são apenas seus usuários óbvios. Seus stakeholders geralmente se dividem em quatro grupos:

  • Usuários diretos: as pessoas que utilizam ativamente o seu sistema de IA

  • Usuários indiretos: pessoas afetadas por decisões de IA sem interagir diretamente com o sistema

  • Times internos: gerentes de produto, principais tomadores de decisão, testadores de QA, auditores, jurídico e conformidade

  • Partes externas: reguladores, grupos de defesa, organizações comunitárias, mídia

Alguns desses grupos são vulneráveis. Alguns são casos extremos que seus dados de treinamento mal representam. Este board ajuda você a mapear todos eles sistematicamente, para que ninguém seja negligenciado.

O que ele ajuda você a alcançar:

Um mapa abrangente de stakeholders que identifica todos os grupos que interagem ou são afetados pelo seu IA.

Você identificará populações vulneráveis, perceberá lacunas na representação de seus dados de treinamento e categorizará os stakeholders pela sua função: usuários, tomadores de decisão, partes afetadas e supervisão.

Este mapa se torna a base para avaliar onde o risco de viés é maior.

Quem se beneficia mais:

Gerentes de produto, cientistas de dados, pesquisadores de UX e times multifuncionais que desenvolvem sistemas de IA. Particularmente valioso para equipes que trabalham em áreas onde as decisões afetam as oportunidades das pessoas, suas finanças ou bem-estar.

Como utilizá-lo:

Reserve 60 minutos para sua primeira sessão.

Faça um brainstorming dos grupos de stakeholders em todas as quatro categorias

Identifique quem é vulnerável ou

Identifique grupos sub-representados — compare seu tamanho no cenário de stakeholders e compare e documente como cada grupo aparece em seus dados de treinamento.

Boa notícia: Tal como o Board 1, isso se torna reutilizável; projetos futuros precisarão de apenas 20 minutos para revisar e adicionar novos grupos.

Parte da série de Workshops de Mitigação de Viés em IA (Boards 1 a 4).

Riley Coleman

Trustworthy AI Design Educator @ AI Flywheel

I help product and design professionals translate ambiguous ethical AI principles into tangible design decisions and new rituals that result in Trustworthy AI becoming the new industry norm.


Categorias

Templates similares