Todos os templates

Mapeamento de Stakeholders para Risco de Viés em IA

Riley Coleman

11 Visualizações
0 usos
0 curtidas

Relatório

Sobre o que se trata:

Antes de poder avaliar o risco de viés, você precisa saber quem realmente é afetado pela sua IA. E raramente são apenas os usuários evidentes. Seus stakeholders geralmente se enquadram em quatro grupos:

  • Usuários diretos: as pessoas que usam ativamente o seu sistema de IA

  • Usuários indiretos: pessoas afetadas por decisões da IA sem interagir diretamente com o sistema

  • Equipes internas: gerentes de produto, principais tomadores de decisão, testadores de QA, auditores, departamento jurídico e de conformidade

  • Partes externas: reguladores, grupos de defesa, organizações comunitárias, mídia

Alguns desses grupos são vulneráveis. Alguns são casos atípicos que seus dados de treinamento mal representam. Este board ajuda a mapear todos eles de forma sistemática, para que ninguém seja deixado de fora.

O que isso ajuda a alcançar:

Um mapa abrangente de stakeholders que identifica todos os grupos que interagem com ou são afetados pela sua IA.

Você identificará populações vulneráveis, reconhecerá falhas na representação de seus dados de treinamento e categorizará stakeholders por sua função: usuários, tomadores de decisão, partes afetadas e supervisão.

Este mapa se torna a base para avaliar onde o risco de viés é maior.

Quem mais se beneficia:

Product managers, data scientists, pesquisadores de UX e equipes multifuncionais que constroem sistemas de IA. Particularmente valioso para times que trabalham em áreas onde as decisões afetam as oportunidades, finanças ou bem-estar das pessoas.

Como usá-lo:

Reserve 60 minutos para sua primeira sessão.

Faça um brainstorming dos grupos de stakeholders nas quatro categorias

Identifique quem é vulnerável ou

Identifique grupos sub-representados - compare o tamanho deles na paisagem de stakeholders e compare & documente como cada grupo aparece nos seus dados de treinamento.

Boa notícia: Assim como o Board 1, isto se torna reutilizável; projetos futuros precisam apenas de 20 minutos para revisar e adicionar novos grupos.

Parte da série de Workshops de Mitigação de Viés em IA (Boards 1 a 4).

Riley Coleman

Trustworthy AI Design Educator @ AI Flywheel

I help product and design professionals translate ambiguous ethical AI principles into tangible design decisions and new rituals that result in Trustworthy AI becoming the new industry norm.


Categorias

Templates similares