W miarę zbliżania się wyborów parlamentarnych w Indiach w 2024 roku, partie polITyczne coraz częściej wykorzystują sztuczną inteligencję (AI) do tworzenia deepfakes i innych form manipulacji medialnych w celu wpływania na wyborców. Ta nowa strategia kampanii wyborczej budzi obawy o integralność procesu wyborczego i demokratyczne wartości w Indiach.
Deepfakes w kampaniach wyborczych
Deepfakes to rodzaj fałszywego wideo lub audio, stworzonego za pomocą AI, które przedstawia osobę mówiącą lub robiącą coś, czego w rzeczywistości nie zrobiła. Ta technologia może być wykorzystana do tworzenia fałszywych informacji, które mogą zniszczyć reputację osoby lub podważyć wiarygodność informacji.
W Indiach deepfakes są coraz częściej wykorzystywane w kampaniach wyborczych. Partie polITyczne wykorzystują je do:
– Tworzenia fałszywych filmów przedstawiających przeciwników polITycznych w negatywnym świetle.
– Używania deepfakes do tworzenia wizerunku idealnego kandydata, który jest bardziej atrakcyjny dla wyborców.
– Manipulowania nagraniami audio, aby przedstawić przeciwników w negatywnym świetle.
Przykładowe przypadki deepfakes w indiach
W 2020 roku Manoj Tiwari, członek parlamentu BJP, użył deepfakes w swojej kampanii wyborczej w Delhi. W trzech różnych filmach wideo, Tiwari zwracał się do wyborców w Delhi w języku hindi, haryanvi i angielskim, docierając do trzech różnych grup odbiorców w tym wielokulturowym mieście. Tylko wideo w języku hindi było autentyczne: dwa pozostałe były deepfakes, w których AI zostało użyte do wygenerowania jego głosu i słów oraz do modyfikacji jego wyrazów twarzy i ruchu warg, co sprawiło, że było praktycznie niemożliwe do wykrycia, że nie są one prawdziwe.
W ostatnich miesiącach, Dravida Munnetra Kazhagam (DMK), która rządzi południowym stanem Tamil Nadu, wykorzystała AI do „ożywienia” swojego ikonicznego lidera M Karunanidhi, używając realistycznych filmów wideo byłego pisarza filmowego i doświadczonego polITyka na wydarzeniach kampanii wyborczej.
Wyzwania związane z deepfakes
Głównym wyzwaniem związanym z deepfakes jest ich identyfikacja. Jakość deepfakes jest tak dobra, że nawet laboratoria kryminalistyczne mogą potrzebować dni, aby ustalić prawdziwość materiału.
Deepfakes stanowią również zagrożenie dla demokracji i wolności słowa. Mogą być wykorzystywane do rozpowszechniania fałszywych informacji, które mogą zniszczyć reputację osób lub podważyć wiarygodność informacji.
Reakcja władz w indiach
Rząd Indii zdaje sobie sprawę z zagrożenia ze strony deepfakes. Na początku 2024 roku minister Chandrasekhar powiedział, że Indie obudziły się wcześniej niż inne kraje na zagrożenie ze strony deepfakes, ze względu na rozmiar swojej populacji online. Ostrzegł również, że firmy mediów społecznościowych będą pociągane do odpowiedzialności za rozpowszechnianie deepfakes.
Komisja Wyborcza Indii (ECI) wydała ostrzeżenie dla wszystkich partii polITycznych, wzywając je do powstrzymania się od używania deepfakes i innych form dezinformacji w swoich postach w mediach społecznościowych podczas trwających wyborów parlamentarnych. Ten krok został podjęty po tym, jak ECI spotkała się z krytyką za to, że nie zrobiła wystarczająco dużo, aby zwalczyć takie kampanie.
Przyszłość deepfakes w indiach
Uważa się, że partie polITyczne w Indiach wydadzą ponad 50 milionów dolarów na materiały kampanii wyborczej generowane przez AI w tym roku. Wiele młodych firm zajmujących się tworzeniem mediów syntetycznych pracuje nad zaspokojeniem popytu ze strony wszystkich głównych partii polITycznych. Twórcy treści AI mówią, że ustalili własne etyczne granice dotyczące tego, jak daleko posuną się w tworzeniu deepfakes.
W miarę zbliżania się wyborów parlamentarnych w Indiach w 2024 roku, deepfakes prawdopodobnie będą odgrywać coraz większą rolę w kampaniach wyborczych. Władze Indii muszą podjąć kroki w celu uregulowania tej technologii i ochrony integralności procesu wyborczego.
Wnioski
Wykorzystanie deepfakes w kampaniach wyborczych w Indiach stanowi poważne zagrożenie dla demokracji i integralności procesu wyborczego. Konieczne jest podjęcie działań w celu uregulowania tej technologii i ochrony wyborców przed dezinformacją.