Todas las plantillas

Creación de mapas de stakeholders para riesgo de sesgo en IA

Riley Coleman

468 views
3 uses
0 likes

Informe

De qué se trata:

Antes de poder evaluar el riesgo de sesgo, necesitas saber a quiénes realmente afecta tu IA. Y rara vez son solo tus usuarios evidentes. Tus stakeholders típicamente se dividen en cuatro grupos:

  • Usuarios directos: las personas que usan activamente tu sistema de IA

  • Usuarios indirectos: personas afectadas por decisiones de IA sin interactuar directamente con el sistema

  • Equipos internos: gerentes de producto, tomadores de decisión clave, testers de QA, auditores, legal y cumplimiento

  • Partes externas: reguladores, grupos de defensa, organizaciones comunitarias, medios de comunicación

Algunos de estos grupos son vulnerables. Algunos son casos límite que tus datos de entrenamiento apenas representan. Este tablero te ayuda a mapearlos sistemáticamente, para que nadie pase desapercibido.

Lo que te ayuda a lograr:

Un mapa de stakeholders comprensivo que identifica cada grupo que interactúa con o es afectado por tu IA.

Identificarás poblaciones vulnerables, detectarás brechas en la representación de tus datos de entrenamiento y categorizarás a los stakeholders por su rol: usuarios, tomadores de decisiones, partes afectadas y supervisión.

Este mapa se convierte en la base para evaluar dónde está el mayor riesgo de sesgo.

¿Quién se beneficia más?

Product managers, científicos de datos, investigadores UX y equipos multifuncionales que desarrollan sistemas de IA. Es particularmente valioso para los equipos que trabajan en áreas donde las decisiones afectan las oportunidades, finanzas o bienestar de las personas.

Cómo usarlo:

Dedicar 60 minutos a la primera sesión.

Lluvia de ideas sobre grupos de stakeholders en las cuatro categorías.

Identificar quién es vulnerable o

Identificar grupos subrepresentados: comparar su tamaño en el panorama de stakeholders y comparar y documentar cómo cada grupo está representado en tus datos de entrenamiento.

Buenas noticias : Al igual que el tablero 1, esto se vuelve reutilizable; futuros proyectos solo necesitarán 20 minutos para revisar y añadir nuevos grupos.

Parte de la serie de talleres de mitigación de sesgo en IA (tableros 1 al 4).

Riley Coleman

Trustworthy AI Design Educator @ AI Flywheel

I help product and design professionals translate ambiguous ethical AI principles into tangible design decisions and new rituals that result in Trustworthy AI becoming the new industry norm.


Categorías

Plantillas similares