Worum es geht:
Bevor du das Bias-Risiko bewerten kannst, musst du wissen, wen deine KI tatsächlich betrifft. Und das sind selten nur deine offensichtlichen Nutzer. Deine Stakeholder fallen typischerweise in vier Gruppen:
Direkte Nutzer: die Menschen, die das AI-System aktiv nutzen
Indirekte Nutzer: Menschen, die von AI-Entscheidungen betroffen sind, ohne direkt mit dem System zu interagieren
Interne Teams: Produktmanager, wichtige Entscheidungsträger, QA-Tester, Auditoren, rechtliche und Compliance-Abteilungen
Externe Parteien: Regulierungsbehörden, Interessenvertretungen, Gemeindevereine, Medien
Einige dieser Gruppen sind verletzlich. Einige sind Grenzfälle, die von Ihren Trainingsdaten kaum repräsentiert werden. Dieses Board hilft Ihnen, alle systematisch zu erfassen, damit niemand übersehen wird.
Was Sie damit erreichen:
Eine umfassende Stakeholder-Karte, die jede Gruppe identifiziert, die mit Ihrem AI interagiert oder davon betroffen ist.
Du wirst gefährdete Bevölkerungsgruppen kennzeichnen, Lücken in der Repräsentation deiner Trainingsdaten aufdecken und Stakeholder nach ihren Rollen kategorisieren: Nutzer, Entscheidungsträger, Betroffene und Aufsicht.
Diese Map wird zur Grundlage, um zu beurteilen, wo das Risiko für Verzerrungen am höchsten ist.
Wer am meisten profitiert:
Produktmanager, Datenwissenschaftler, UX Researcher und funktionsübergreifende Teams, die KI-Systeme entwickeln. Besonders wertvoll für Teams, die in Bereichen arbeiten, in denen Entscheidungen die Möglichkeiten, Finanzen oder das Wohlbefinden von Menschen betreffen.
So verwendest du es:
Plane 60 Minuten für deine erste Sitzung ein.
Lasse dir Stakeholdergruppen in allen vier Kategorien einfallen
Identifiziere, wer gefährdet ist oder
Identifiziere unterrepräsentierte Gruppen - vergleiche ihre Größe in der Stakeholder-Landschaft und dokumentiere, wie gut jede Gruppe in deinen Trainingsdaten vertreten ist.
Gute Nachrichten: Genau wie Board 1 wird dies wiederverwendbar; zukünftige Projekte benötigen nur 20 Minuten, um es zu überprüfen und neue Gruppen hinzuzufügen.
Teil der AI Bias Mitigation Workshop-Reihe (Boards 1 bis 4).