Worum es geht:
Bevor du das Risiko von Bias bewerten kannst, musst du wissen, wen deine KI tatsächlich beeinflusst. Und es sind selten nur die offensichtlichen Nutzer. Deine Stakeholder fallen typischerweise in vier Gruppen:
Direkte Nutzer: die Personen, die dein KI-System aktiv nutzen
Indirekte Nutzer: Personen, die von KI-Entscheidungen betroffen sind, ohne direkt mit dem System zu interagieren
Interne Teams: Produktmanager, wichtige Entscheidungsträger, QA-Tester, Prüfer, Rechts- und Compliance-Abteilung
Externe Parteien: Regulierungsbehörden, Interessensgruppen, Gemeinschaftsorganisationen, Medien
Einige dieser Gruppen sind anfällig. Einige sind Sonderfälle, die in deinen Trainingsdaten kaum repräsentiert sind. Diese Vorlage hilft dir, alle systematisch abzubilden, damit niemand übersehen wird.
Was du damit erreichen kannst:
Eine umfassende Stakeholder-Karte, die jede Gruppe identifiziert, die mit oder durch deine KI interagiert wird oder betroffen ist.
Du wirst gefährdete Bevölkerungsgruppen markieren, Lücken in deiner Darstellung der Trainingsdaten erkennen und Stakeholder nach ihrer Rolle kategorisieren: Nutzer, Entscheider, Betroffene und Aufsicht.
Diese Map wird die Grundlage, um zu bewerten, wo das Bias-Risiko am höchsten ist.
Wer am meisten profitiert:
Produktmanager, Datenwissenschaftler, UX Researcher und funktionsübergreifende Teams, die AI-Systeme entwickeln. Besonders wertvoll für Teams, die in Bereichen arbeiten, in denen Entscheidungen die Chancen, Finanzen oder das Wohlbefinden von Menschen betreffen.
So wird es genutzt:
Plane 60 Minuten für deine erste Session ein.
Brainstorme Stakeholdergruppen in allen vier Kategorien
Identifiziere, wer gefährdet ist
Identifiziere unterrepräsentierte Gruppen – vergleiche ihre Größe im Stakeholder-Landschaft und dokumentiere, wie gut jede Gruppe in deinen Trainingsdaten vertreten ist.
Gute Nachrichten: Wie Board 1 wird dies wiederverwendbar; zukünftige Projekte benötigen nur 20 Minuten, um zu prüfen und neue Gruppen hinzuzufügen.
Teil der Workshop-Reihe zur Minderung von KI-Vorurteilen (Boards 1 bis 4).