A választások manipulálása nem új keletű jelenség, és a deepfake technológiák megjelenésével ez a jelenség új dimenzióba lépett. Az ilyen technológiák segítségével hamis videók és hangfelvételek készíthetők, amelyek képesek torzítani a valóságot, és ezált
A deepfake technológia globálisan elterjedt eszközként szolgál a politikai dezinformáció és manipuláció színterén.
A Blikk is hírt adott arról, hogy nemrégiben egyre szélesebb körben terjed egy videó, amely sokak figyelmét felkeltette. A megosztók szerint ez a felvétel egy kiszivárgott kormányzati kampányanyagot tartalmaz, amely állítólag bizonyítékot szolgáltat arra, hogy a Fidesz-KDNP a 2026-os országgyűlési választások elhalasztását tervezi.
A közbeszédben már régóta felmerült a gyanú, hogy a Fidesz különböző stratégiákat dolgozhat ki a 2026-os választásokra készülve. Tavasszal Magyar Péter, a TISZA Párt elnöke is ezzel a témával foglalkozott: szerinte lehetséges, hogy a kormány megpróbálná gátat vetni pártja indulásának. A legdrasztikusabb lépés pedig az lenne, ha a választásokat egyáltalán nem tartanák meg a következő tavasz során. Bár a közelmúltban megjelent videó stílusa, üzenete és hangneme valóban a kormányzati kampányokra emlékeztet, egyértelmű, hogy azt mesterséges intelligencia állította elő, így nyilvánvalóan hamisítványról van szó.
A szerdai kormányinfón Gulyás Gergely, a Miniszterelnökséget irányító miniszter, hangsúlyozta, hogy feljelentést fognak tenni rémhírterjesztés okán.
A mesterséges intelligencia által létrehozott hamisítványokkal kapcsolatban meg kell említenünk, hogy nem csupán a hazai példák jellemzőek erre a jelenségre. Az MI segítségével történő kampánybeavatkozási kísérletek szép számmal akadnak a világ különböző tájain. Összegyűjtöttünk néhány figyelemre méltó esetet, hogy szemléltessük, miként próbálnak manipulálni a gyanútlan szavazók véleményével és döntéseivel.
2024 januárjában New Hampshire államában meghökkentő esemény zajlott: több ezer választó kapott telefonhívásokat, amelyben Joe Biden akkori elnök kérte őket, hogy ne vegyenek részt az állam előválasztásán. A hírek később felfedték, hogy ezek a hívások valójában mesterséges intelligencia által generált üzenetek voltak, amelyeket egy demokrata párti tanácsadó készített el, figyelmeztetve a MI-technológiák potenciális veszélyeire. Az eset súlyos következményekkel járt: az érintett tanácsadót 6 millió dolláros (körülbelül 2,1 milliárd forintos) bírságra ítélte az amerikai távközlési hatóság, és büntetőeljárás is indult ellene.
Bár sokan aggódtak a "kamuvideók" elárasztása miatt, 2024-ben Amerikában az MI-t inkább politikai mémek készítésére használták. A világ leggazdagabb embere, Elon Musk, akinek vagyona 342 milliárd dollárt (119,5 ezer milliárd forintot) tesz ki, például megosztott egy videót Kamala Harrisról, amelyben az alelnök "a sokszínűség kirakatemberének" titulálja magát. Donald Trump támogatói is aktívan részt vettek a mémek terjesztésében, beleértve egy MI által készített képet, amelyen Trump oroszlánon lovagol.
2024 októberében orosz források által készített hamis videó jelent meg, amely állítólag arról számolt be, hogy Pennsylvaniában a Trumpra leadott levélszavazatok jelentős része eltűnt. A videó gyorsan lelepleződött, azonban a Szövetségi Nyomozóiroda (FBI) és más amerikai hatóságok szerint ez a lépés Oroszország széleskörű kampányának része volt, amelynek célja az amerikai választási rendszerbe vetett bizalom aláásása volt.
Indiában a 2024-es parlamenti választások idején szintén tömegesen terjedtek az MI-vel készített politikai mémek. Dzsaipur egyik piacán egy Dilip nevű kereskedő mesélte, hogy a barátai rendszeresen küldtek neki a mesterséges intelligencia által generált gúnyképeket a WhatsAppon, különösen Rahul Gandhiról, az ellenzék vezetőjéről. Az egyik népszerű mém Gandhit buta tolvajként ábrázolta, aki azon töprengett, mennyi pénzt lopna el, ha nyerne.
Indonéziában tavaly egy igazán figyelemre méltó mesterséges intelligencia alkalmazás valósult meg: a Golkar párt egy innovatív megoldással "visszahozta" a 2008-ban elhunyt Szuhartót, aki egykoron katonai és politikai vezetőként ismert. A deepfake technológia segítségével készült videóban a virtuális Szuharto a Golkar jelöltjeit támogatta, hangsúlyozva, hogy ők "folytatják Indonézia fejlődésének álmát". Ez a lépés nemcsak technológiai újítás, hanem komoly etikai kérdéseket is felvet az emlékek és a politikai diskurzus manipulációjának határvonalán.
Nem sokkal később Szuharto veje, aki szintén a Golkar párt támogatását élvezte, sikeresen elnyerte az elnöki posztot.
Szlovákiában a 2023-as parlamenti választások előtt egy sor olyan videó jelent meg a közösségi médiában, amelyekben a politikai ellenfelek hangját hamisították meg mesterséges intelligenciával. Ezek a felvételek elsősorban a Facebook, az Instagram és a Telegram platformjain terjedtek. Az egyik ilyen videón Michal Simecka, a Progresszív Szlovákia vezetője hallható, amint arról beszél, hogy miként vásárolnának meg szavazatokat a roma közösségtől. Tényellenőrzések során kiderült, hogy a hanganyagot egy MI-generátor készítette valós minták alapján.
Egy másik szituációban a szélsőjobboldali Republika párt olyan videókat publikált, amelyekben Simecka és Zuzana Caputová elnök generált hangja figyelmeztette a választókat, hogy "ne kövessék kritikátlanul a progresszív tömeget". Ezek a videók hosszabb időn keresztül is elérhetők voltak.
Németországban is felfedeztek orosz hátterű dezinformációs kampányokat a 2025-ös választások előtt. Különféle hamis videók kezdtek el terjedni, amelyek azt állítják, hogy Lipcsében az AfD jelöltjének neve eltűnt a szavazólapokról, valamint azt is sugallják, hogy az AfD-re leadott szavazatokat érvénytelenítik.
A német belügyminisztérium állásfoglalása szerint ezek a felvételek az "Storm-1516" kódnevű, Oroszországhoz kapcsolható művelet részeként kerültek napvilágra, amely korábban már aktívan részt vett európai választási folyamatok befolyásolására irányuló kísérletekben. A német hatóságok gyorsan reagáltak és visszautasították a videók hitelességét, azonban ezek az események világosan tükrözik, hogy miként használják az mesterséges intelligenciát geopolitikai stratégiák megvalósítására.