O co chodzi:
Jeśli budujesz AI i chcesz zmniejszyć uprzedzenia, najpierw musisz jasno określić, co właściwie oznacza "uczciwość" dla twojego systemu.
Oto sprawa: nie ma jednej definicji uczciwości. Równe szanse? Parzystość demograficzna? Równa dokładność? Uczciwość proceduralna? To nie są tylko akademickie koncepcje; to autentycznie różne podejścia, a optymalizacja jednego może działać na niekorzyść innego."
Ta tablica pomoże Ci zbadać te cztery definicje, zrozumieć kompromisy i świadomie wybrać rozwiązanie, które najlepiej pasuje do Twojego kontekstu.
Co pomoże Ci osiągnąć:
Jasna, udokumentowana definicja sprawiedliwości, którą rozumie i akceptuje cały zespół. Koniec z niejasnymi zobowiązaniami do "sprawiedliwej AI" bez wiedzy, co to naprawdę oznacza w praktyce.
Wyjdziesz z jasną decyzją i jej uzasadnieniem. Można to wykorzystać do projektowania, testowania i udoskonalania.
Kto korzysta najbardziej:
Kierownicy produktów, naukowcy zajmujący się danymi, liderzy od etyki AI i zespoły międzyfunkcyjne budujące systemy AI, szczególnie w obszarach o wysokim ryzyku jak rekrutacja, udzielanie pożyczek czy ochrona zdrowia, gdzie błędne zrozumienie sprawiedliwości ma rzeczywiste konsekwencje dla prawdziwych ludzi.
Jak z tego skorzystać:
Przeznacz 45 minut na swoją pierwszą sesję. Przeanalizuj każdą definicję sprawiedliwości z zespołem, uczciwie omów kompromisy i udokumentuj swój wybór.
Dobra wiadomość: To staje się fundamentem dla wszystkich przyszłych projektów AI; później potrzebujesz tylko 15 minut, aby przejrzeć i potwierdzić, że wciąż ma zastosowanie.
Część serii warsztatów dotyczących łagodzenia uprzedzeń AI (tablice 1 do 4).