개요:
편향 위험을 평가하기 전에 AI가 실제로 누구에게 영향을 미치는지 알아야 합니다. 단순한 사용자만을 대상으로 하지 않습니다. 이해관계자는 일반적으로 네 가지 그룹으로 나뉩니다:
직접 사용자: AI 시스템을 적극적으로 사용하는 사람들
간접 사용자: 시스템과 직접 상호작용하지 않지만 AI 결정에 영향을 받는 사람들
내부 팀: 제품 관리자, 주요 의사결정자, QA 테스터, 감사관, 법무 및 규정 준수
외부 당사자: 규제 기관, 옹호 단체, 커뮤니티 조직, 미디어
이들 그룹 중 일부는 취약한 상태입니다. 일부는 학습 데이터가 거의 반영하지 않는 극소수 사례일 수 있습니다. 이 보드는 모든 그룹을 체계적으로 매핑하여 어느 누구도 간과되지 않도록 돕습니다.
이를 통해 달성할 수 있는 것은:
AI와 상호작용하거나 AI의 영향을 받는 모든 그룹을 식별하는 포괄적인 이해관계자 맵입니다.
취약한 인구를 표시하고, 훈련 데이터 표현에서의 격차를 발견하며, 각 이해관계자를 역할에 따라 구분하세요: 사용자, 의사 결정자, 영향을 받는 그룹, 그리고 감독 기관으로.
이 맵은 편향 위험이 가장 높은 영역을 평가하기 위한 기초가 됩니다.
가장 큰 혜택을 받는 사람들:
제품 관리자, 데이터 과학자, UX 리서처, 그리고 AI 시스템을 구축하는 크로스 펑셔널 팀. 특히 사람들이 기회, 재정, 또는 복지에 영향을 끼치는 영역에서 일하는 팀에게 특히 유용합니다.
사용 방법:
첫 세션에 60분을 할애하세요.
네 가지 범주에서 이해관계자 그룹을 브레인스토밍합니다.
누가 취약한지 식별하고,
소홀히 다뤄진 그룹을 식별합니다. 이들의 규모를 이해관계자 지형과 비교하고, 각 그룹이 훈련 데이터에 얼마나 잘 나타나는지 비교 및 기록합니다.
기쁜 소식 : 보드 1과 같이 이 보드도 재사용 가능합니다. 다음 프로젝트에서는 검토하고 새 그룹을 추가하는 데 20분이면 충분합니다.
AI 편향 완화 워크숍 시리즈의 일부 (보드 1에서 4까지).