Todos os templates

Mapeamento de Stakeholders de IA para Risco de Viés

Riley Coleman

471 views
3 uses
0 likes

Denunciar

Sobre o que se trata:

Antes de avaliar o risco de viés, você precisa saber quem seu sistema de IA realmente impacta. E raramente são apenas os usuários óbvios. Seus stakeholders geralmente se dividem em quatro grupos:

  • Usuários diretos: as pessoas que utilizam ativamente seu sistema de IA

  • Usuários indiretos: pessoas afetadas por decisões de IA sem interagir diretamente com o sistema

  • Times internos: gerentes de produto, tomadores de decisão principais, testadores de QA, auditores, legais e de conformidade

  • Partes externas: reguladores, grupos de defesa, organizações comunitárias, mídia

Alguns desses grupos são vulneráveis. Alguns são casos de borda que seus dados de treinamento mal representam. Este board ajuda você a mapear todos eles de forma sistemática, para que ninguém seja negligenciado.

O que isso ajuda você a alcançar:

Um mapa de stakeholders abrangente que identifica todos os grupos que interagem ou são afetados pela sua IA.

Você identificará populações vulneráveis, perceberá lacunas na representação dos seus dados de treinamento e categorizará stakeholders por função: usuários, tomadores de decisão, partes afetadas e supervisão.

Este mapa se torna a base para avaliar onde o risco de viés é maior.

Quem se beneficia mais:

Gerentes de produto, cientistas de dados, pesquisadores de UX e times multifuncionais que constroem sistemas de IA. Particularmente valioso para times que trabalham em áreas onde as decisões afetam oportunidades, finanças ou bem-estar das pessoas.

Como usar:

Reserve 60 minutos para a primeira sessão.

Faça um brainstorming dos grupos de stakeholders em todas as quatro categorias

Identifique quem é vulnerável ou

Identifique grupos sub-representados - compare o tamanho deles no panorama de stakeholders e compare & documente a representação de cada grupo em seus dados de treinamento.

Boas notícias : Assim como o Board 1, isso se torna reutilizável; futuros projetos precisam apenas de 20 minutos para revisar e adicionar quaisquer novos grupos.

Parte da série de Workshops de Mitigação de Viés em IA (Boards 1 a 4).

Riley Coleman

Trustworthy AI Design Educator @ AI Flywheel

I help product and design professionals translate ambiguous ethical AI principles into tangible design decisions and new rituals that result in Trustworthy AI becoming the new industry norm.


Categorias

Templates similares