Worum es geht:
Bevor du das Bias-Risiko bewerten kannst, musst du wissen, wen deine AI tatsächlich betrifft. Und das sind selten nur die offensichtlichen Nutzer. Deine Stakeholder fallen typischerweise in vier Gruppen:
Direkte Nutzer: die Personen, die dein AI-System aktiv nutzen
Indirekte Nutzer: Personen, die von AI-Entscheidungen betroffen sind, ohne direkt mit dem System zu interagieren
Interne Teams: Produktmanager, wichtige Entscheidungsträger, QA-Tester, Prüfer, Rechts- und Compliance-Abteilungen
Externe Parteien: Regulierungsbehörden, Interessensvertretungen, Gemeinschaftsorganisationen, Medien
Einige dieser Gruppen sind gefährdet. Einige sind Randfälle, die in deinen Trainingsdaten kaum vertreten sind. Dieses Board hilft dir, alle systematisch zu erfassen, damit niemand übersehen wird.
Was es dir ermöglicht:
Eine umfassende Stakeholder-Map, die jede Gruppe identifiziert, die mit deiner AI interagiert oder von ihr betroffen ist.
Du wirst gefährdete Bevölkerungsgruppen kennzeichnen, Lücken in der Repräsentation deiner Trainingsdaten aufdecken und Stakeholder nach ihrer Rolle kategorisieren: Nutzer, Entscheider, Betroffene und Aufsichtsorgane.
Diese Map wird zur Grundlage, um zu bewerten, wo das Bias-Risiko am höchsten ist.
Wer den größten Nutzen daraus zieht:
Produktmanager, Datenwissenschaftler, UX-Researcher und funktionsübergreifende Teams, die AI-Systeme bauen. Besonders wertvoll für Teams, die in Bereichen tätig sind, in denen Entscheidungen die Chancen, Finanzen oder das Wohlbefinden von Menschen beeinflussen.
So nutzt du es:
Plane 60 Minuten für deine erste Sitzung ein.
Brainstorme Stakeholdergruppen in allen vier Kategorien
Identifiziere, wer gefährdet ist oder
Identifiziere unterrepräsentierte Gruppen - vergleiche ihre Größe in der Stakeholder-Landschaft und dokumentiere, wie gut jede Gruppe in deinen Trainingsdaten erscheint.
Gute Nachricht : Ähnlich wie Board 1 wird auch dieses wiederverwendbar; zukünftige Projekte benötigen nur 20 Minuten, um es zu überprüfen und neue Gruppen hinzuzufügen.
Teil der Workshop-Reihe „AI Bias Mitigation“ (Boards 1 bis 4).