De qué se trata:
Antes de poder evaluar el riesgo de sesgos, necesitas saber a quién afecta realmente tu IA. Y raramente son solo tus usuarios evidentes. Normalmente, tus stakeholders se dividen en cuatro grupos:
Usuarios directos: las personas que usan activamente tu sistema de IA
Usuarios indirectos: personas afectadas por decisiones de IA sin interactuar directamente con el sistema
Equipos internos: gerentes de producto, responsables de decisiones clave, evaluadores de QA, auditores, legales y de cumplimiento
Partes externas: reguladores, grupos de defensa, organizaciones comunitarias, medios de comunicación
Algunos de estos grupos son vulnerables. Algunos son casos extremos que tus datos de entrenamiento apenas representan. Este tablero te ayuda a mapearlos sistemáticamente, para que nadie quede fuera.
Qué te ayuda a lograr:
Un mapa comprensivo de stakeholders que identifica cada grupo que interactúa o es afectado por tu IA.
Identificarás poblaciones vulnerables, detectarás vacíos en la representación de tus datos de entrenamiento y categorizarás a los stakeholders según su rol: usuarios, tomadores de decisiones, partes afectadas y supervisores.
Este mapa se convierte en la base para evaluar dónde el riesgo de sesgo es mayor.
Quiénes se benefician más:
Product managers, científicos de datos, investigadores de UX y equipos multifuncionales que desarrollan sistemas de IA. Es particularmente valioso para equipos que trabajan en áreas donde las decisiones afectan las oportunidades, finanzas o bienestar de las personas.
Cómo utilizarlo:
Dedica 60 minutos para tu primera sesión.
Haz una lluvia de ideas sobre grupos de stakeholders en las cuatro categorías.
Identifica quiénes son vulnerables o
Identifica grupos subrepresentados: compara su tamaño en el panorama de stakeholders y documenta cuán bien representado está cada grupo en tus datos de entrenamiento.
Buenas noticias: Al igual que el Tablero 1, este se vuelve reutilizable; los proyectos futuros solo necesitarán 20 minutos para revisar y agregar nuevos grupos.
Parte de la serie de talleres de Mitigación de Sesgos en IA (Tableros 1 a 4).