W ostatnich tygodniach Google stanęło w obliczu krytyki za swoje narzędzie do generowania obrazów AI, Gemini, które zostało oskarżone o antybiałą stronniczość. Użytkownicy zgłaszali, że system generuje obrazy osób o różnej przynależności etnicznej i płci, nawet gdy historycznie było to niedokładne. W odpowiedzi Google wstrzymało możliwość generowania obrazów ludzi, dopóki nie zostanie wprowadzona poprawka.
Problem z gemini
Problem z Gemini polega na tym, że system generuje obrazy, które są historycznie nieprawidłowe. Na przykład, gdy użytkownik poprosił o stworzenie obrazu Wikingów, Gemini pokazało wyłącznie Czarnych ludzi w tradycyjnych wikingowych strojach. Inne przykłady obejmują obrazy Ojców Założycieli przedstawiające rdzennych mieszkańców Ameryki w kolonialnych strojach, czy też George’a Washingtona jako Czarnego. Gdy poproszono o stworzenie obrazu papieża, system pokazał tylko osoby o przynależności etnicznej innej niż biała.
Reakcja google
Google przyznało, że system nie działa prawidłowo i pracuje nad poprawą tych przedstawień. Firma wyjaśniła, że Gemini zostało zaprojektowane tak, aby odzwierciedlało globalną bazę użytkowników i że Google poważnie traktuje kwestię reprezentacji i stronniczości. Firma planuje kontynuować to podejście w przypadku otwartych podpowiedzi (np. obrazy osoby spacerującej z psem są uniwersalne!), ale historyczne konteksty wymagają większej precyzji i Google będzie dalej dostosowywać system, aby to uwzględnić.
Krytyka i kontrowersje
Sprawa Gemini szybko stała się tematem dyskusji w Internecie, a wielu prawicowych komentatorów wykorzystało ją jako dowód na istnienie antybiałej stronniczości w technologicznych gigantach. Niektórzy sugerowali, że Google jest rasistowskie lub „zarażone wirusem przebudzenia”.
Problemy z AI
Mimo to sytuacja przede wszystkim podkreśla, że generatywne systemy AI nie są zbyt inteligentne. Gary Marcus, emerytowany profesor psychologii i neurobiologii na Uniwersytecie Nowojorskim, napisał, że to po prostu kiepskie oprogramowanie. Gemini nie potrafi odróżnić historycznego żądania (np. pokazania załogi Apollo 11) od współczesnego żądania (np. pokazania obrazów obecnych astronautów).
Stronniczość w AI
Stronniczość w AI to powszechny problem. Wcześniejsze modele AI, takie jak Dall-E od OpenAI, również były obarczone stronniczością, pokazując osoby niebiałe, gdy proszono o obrazy więźniów, lub wyłącznie osoby białe, gdy proszono o obrazy dyrektorów generalnych. Problemy Gemini mogą nie odzwierciedlać sztywności modelu, ale raczej nadmierną kompensację w kwestii reprezentacji różnorodności. Sasha Luccioni, badaczka ze startupu AI Hugging Face, powiedziała, że stronniczość jest spektrum, a znalezienie odpowiedniego tonu, uwzględniając takie kwestie jak kontekst historyczny, jest bardzo trudne.
Przyszłość AI
W miarę jak rosnący przemysł AI próbuje radzić sobie ze stronniczością, znalezienie odpowiedniej równowagi w kwestii reprezentacji i różnorodności będzie trudne. Nie ma jednego słusznego rozwiązania, a bezstronny model nie istnieje. Różne firmy przyjęły różne stanowiska w tej sprawie. Sytuacja Gemini pokazuje, że Google przyjęło podejście „Bridgerton” do generowania obrazów, co jest dość odświeżające.
Wnioski
Sprawa Gemini to kolejny przykład tego, jak AI może być podatne na stronniczość i błędy. Pokazuje, że w miarę jak AI staje się coraz bardziej zaawansowane, musimy być świadomi ograniczeń tych systemów i pracować nad ich poprawą. Musimy również zwrócić uwagę na kwestię reprezentacji i różnorodności w AI, aby zapewnić, że te systemy odzwierciedlają rzeczywistość i nie potęgują istniejących uprzedzeń.