Todas las plantillas

Creación de Mapas de Stakeholders para el Riesgo de Sesgo en IA

Riley Coleman

242 Vistas
2 usos
0 Me gusta

Reportar

De qué se trata:

Antes de poder evaluar el riesgo de sesgo, necesitas saber a quiénes realmente afecta tu IA. Y rara vez son solo tus usuarios obvios. Tus stakeholders generalmente se dividen en cuatro grupos:

  • Usuarios directos: las personas que usan activamente tu sistema de IA

  • Usuarios indirectos: personas afectadas por las decisiones de la IA sin interactuar directamente con el sistema

  • Equipos internos: gerentes de producto, tomadores de decisiones clave, evaluadores de control de calidad, auditores, legales y de cumplimiento

  • Partes externas: reguladores, grupos de defensa, organizaciones comunitarias, medios de comunicación

Algunos de estos grupos son vulnerables. Algunos son casos atípicos apenas representados en tus datos de entrenamiento. Este tablero te ayuda a mapearlos sistemáticamente, para que nadie pase desapercibido.

Lo que te ayuda a lograr:

Un mapa de stakeholders integral que identifica a cada grupo que interactúa con o es afectado por tu IA.

Vas a identificar poblaciones vulnerables, detectar espacios en la representación de los datos de entrenamiento y categorizar a los stakeholders por su rol: usuarios, tomadores de decisiones, partes afectadas y supervisión.

Este mapa se convierte en la base para evaluar dónde el riesgo de sesgo es mayor.

¿Quiénes se benefician más?:

Los gerentes de producto, científicos de datos, investigadores UX y equipos multifuncionales que construyen sistemas de IA. Particularmente valioso para equipos que trabajan en áreas donde las decisiones afectan las oportunidades, finanzas o bienestar de las personas.

Cómo usarlo:

Dedica 60 minutos para tu primera sesión.

Genera ideas sobre los grupos de stakeholders en las cuatro categorías

Identifica a los vulnerables o

Identifica grupos subrepresentados - compara su tamaño en el panorama de stakeholders y compara y documenta cómo aparece cada grupo en tus datos de entrenamiento.

Buenas noticias: Al igual que el Tablero 1, este se vuelve reutilizable; los proyectos futuros solo necesitarán 20 minutos para revisar y agregar nuevos grupos.

Parte de la serie de Talleres de Mitigación de Sesgos en IA (Tableros 1 a 4).

Riley Coleman

Trustworthy AI Design Educator @ AI Flywheel

I help product and design professionals translate ambiguous ethical AI principles into tangible design decisions and new rituals that result in Trustworthy AI becoming the new industry norm.


Categorías

Plantillas similares