Do que se trata:
Antes de poder avaliar o risco de viés, você precisa saber quem seu IA realmente afeta. E raramente são apenas seus usuários óbvios. Seus stakeholders geralmente se dividem em quatro grupos:
Usuários diretos: as pessoas que utilizam ativamente o seu sistema de IA
Usuários indiretos: pessoas afetadas por decisões de IA sem interagir diretamente com o sistema
Times internos: gerentes de produto, principais tomadores de decisão, testadores de QA, auditores, jurídico e conformidade
Partes externas: reguladores, grupos de defesa, organizações comunitárias, mídia
Alguns desses grupos são vulneráveis. Alguns são casos extremos que seus dados de treinamento mal representam. Este board ajuda você a mapear todos eles sistematicamente, para que ninguém seja negligenciado.
O que ele ajuda você a alcançar:
Um mapa abrangente de stakeholders que identifica todos os grupos que interagem ou são afetados pelo seu IA.
Você identificará populações vulneráveis, perceberá lacunas na representação de seus dados de treinamento e categorizará os stakeholders pela sua função: usuários, tomadores de decisão, partes afetadas e supervisão.
Este mapa se torna a base para avaliar onde o risco de viés é maior.
Quem se beneficia mais:
Gerentes de produto, cientistas de dados, pesquisadores de UX e times multifuncionais que desenvolvem sistemas de IA. Particularmente valioso para equipes que trabalham em áreas onde as decisões afetam as oportunidades das pessoas, suas finanças ou bem-estar.
Como utilizá-lo:
Reserve 60 minutos para sua primeira sessão.
Faça um brainstorming dos grupos de stakeholders em todas as quatro categorias
Identifique quem é vulnerável ou
Identifique grupos sub-representados — compare seu tamanho no cenário de stakeholders e compare e documente como cada grupo aparece em seus dados de treinamento.
Boa notícia: Tal como o Board 1, isso se torna reutilizável; projetos futuros precisarão de apenas 20 minutos para revisar e adicionar novos grupos.
Parte da série de Workshops de Mitigação de Viés em IA (Boards 1 a 4).