De qué se trata:
Antes de poder evaluar el riesgo de sesgo, necesitas saber a quiénes realmente afecta tu IA. Y rara vez son solo tus usuarios evidentes. Tus stakeholders típicamente se dividen en cuatro grupos:
Usuarios directos: las personas que usan activamente tu sistema de IA
Usuarios indirectos: personas afectadas por decisiones de IA sin interactuar directamente con el sistema
Equipos internos: gerentes de producto, tomadores de decisión clave, testers de QA, auditores, legal y cumplimiento
Partes externas: reguladores, grupos de defensa, organizaciones comunitarias, medios de comunicación
Algunos de estos grupos son vulnerables. Algunos son casos límite que tus datos de entrenamiento apenas representan. Este tablero te ayuda a mapearlos sistemáticamente, para que nadie pase desapercibido.
Lo que te ayuda a lograr:
Un mapa de stakeholders comprensivo que identifica cada grupo que interactúa con o es afectado por tu IA.
Identificarás poblaciones vulnerables, detectarás brechas en la representación de tus datos de entrenamiento y categorizarás a los stakeholders por su rol: usuarios, tomadores de decisiones, partes afectadas y supervisión.
Este mapa se convierte en la base para evaluar dónde está el mayor riesgo de sesgo.
¿Quién se beneficia más?
Product managers, científicos de datos, investigadores UX y equipos multifuncionales que desarrollan sistemas de IA. Es particularmente valioso para los equipos que trabajan en áreas donde las decisiones afectan las oportunidades, finanzas o bienestar de las personas.
Cómo usarlo:
Dedicar 60 minutos a la primera sesión.
Lluvia de ideas sobre grupos de stakeholders en las cuatro categorías.
Identificar quién es vulnerable o
Identificar grupos subrepresentados: comparar su tamaño en el panorama de stakeholders y comparar y documentar cómo cada grupo está representado en tus datos de entrenamiento.
Buenas noticias : Al igual que el tablero 1, esto se vuelve reutilizable; futuros proyectos solo necesitarán 20 minutos para revisar y añadir nuevos grupos.
Parte de la serie de talleres de mitigación de sesgo en IA (tableros 1 al 4).