A mesterséges intelligencia nyújtotta lehetőségek visszaélésszerű alkalmazására régóta figyelmeztetnek, mostanra azonban saját bőrünkön tapasztalhatjuk ezt. Egymás után, szinte naponta jelennek meg az olyan mesterséges intelligencia alkalmazásával létrehozott képek és videók, amelyek egyértelmű célja a politikai befolyásolás, a választók félreinformálása és megtévesztése.
Az elmúlt hónapokban Magyarországon sorra jelentek meg az MI-vel generált képek és videók, amelyekkel a kormányközeli szereplők a politikai ellenfelük lejáratására törekedtek. Ennek a legújabb példája az Orbán Balázs, a miniszterelnök politikai igazgatója által a Facebookon posztolt videó, amelyen - MI alkalmazásával - olyan mondatokat adtak Magyar Péter, a Tisza Párt elnökének a szájába, amelyeket ő korábban soha nem mondott, ezzel próbálva hitelteleníteni a kihívót.
Arról lehet vitatkozni, hogy mennyire tűnnek valóságosnak vagy hihetőnek ezek a kísérletek, de az már most is látszik, hogy ezen eszközök alkalmasak lehetnek a demokratikus működés aláásására, így minden lehetséges eszközzel törekedni kell az MI-vel végzett manipuláció megakadályozására, kivédésére vagy ha már megtörtént az ezzel szemben történő fellépésre. Az alábbiakban röviden áttekintem az MI alkalmazásával készülő politikai tartalmak körüli szabályozási környezetet és megvizsgálom, hogy milyen eszközök alkalmazhatók jelenleg a manipulációval szemben.
1. Milyen példákat láthattunk eddig MI-vel generált politikai tartalmakra?
Az MI-vel generált tartalom természetesen sokféle lehet és többféle indíttatásból készülhet. Ha általánosabban akarjuk meghatározni, akkor a "szintetikus tartalmak" körébe több részterület is tartozik, és csak egy részük esetében kerül sor MI használatra (pl. korábban széles körben elterjedt photoshop megoldások MI használat nélkül is alkalmasak képek manipulálására). Az MI felhasználásával készülő vagy manipulált tartalomnak is többféle megjelenési formája lehet, pl. deepfake videók, hang klónozása vagy akár az MI-vel generált (akár valakinek a stílusát utánzó) szövegek.
A jelen posztban az MI-vele generált tartalmak, különösen a deepfake egyes kérdéseivel foglalkozom, de érdemes megjegyezni, hogy ez a kérdéskör természetesen nem csak a politikai életben, a demokratikus működésben, hanem a mindennapokban is számos területen jelentenek komoly veszélyt. Visszaélések (pl. "unokázós csalások", banki csalások, stb.) válnak olcsón, könnyen és nagyon hatékonyan kivitelezhetővé. A magánélet egyes területein is óriási károkat lehet okozni ezekkel az eszközökkel (pl. deepfake pornográf anyagok készítése, beleegyezés nélkül). Ez utóbbi jelenségre reagált az USA-ban az ún. TAKE IT DOWN Act, amelyet 2025-ben fogadtak el, de a jogalkotó az Egyesült Királyságban is fontosnak tartotta a téma szabályozását. Ausztráliában már 2024-ben hatályba lépett egy törvénymódosítás, amely 6 évig terjedő szabadságvesztéssel rendeli büntetni a szexuális tartalmú anyagok (beleértve a deepfake technológiával készült tartalmakat) engedély nélküli megosztását.
Elsősorban akkor kapjuk fel a fejünket az MI-vel generált politikai tartalmak esetén, ha azok valamilyen módon manipulálni, megtéveszteni, és befolyásolni akarnak, beavatkoznak a politikai kampányokba vagy magukba a választásokba. A teljes képhez azonban hozzátartozik, hogy bizonyos esetekben az MI politikai célú felhasználása is lehet megengedett, elsősorban akkor, ha egy politikai szereplő saját magára alkalmaz valamilyen MI megoldást (pl. egy többnyelvű országban a politikus által nem beszélt nyelven szólal meg MI segítségével, feltéve, hogy ebben az esetben is világosan jelzik az MI használatot). Bizonyos körben akár a politikai ellenfél megjelenítése is elfogadható lehet (pl. a politikai szatíra esetén), de itt már nagyon veszélyes vizekre evezünk, hiszen egyrészt könnyen válhatnak az ilyen megoldások megtévesztővé, léphetik át az elfogadhatóság határát, illetve járhatnak akár reparálhatatlan következményekkel.
2024-re sokan tekintettek úgy, mint egy választási "szuperév", hiszen több, mint 70 országban tartottak választást és a Föld lakosságának fele adhatta le szavazatát, többek között választások voltak az USA-ban, Indiában, de ebben az évben került sor az európai parlamenti képviselők megválasztására is. A választási "szuperév" kapcsán sokan fejezték ki az aggodalmukat a mesterséges intelligencia káros hatásai miatt. A Wired AI Elections Project elnevezésű kutatása 2024-ben 78 választással kapcsolatos MI alkalmazási esetet vizsgált meg számos országból. Az adatbázis azt mutatja, hogy az MI gyakran az ellenfelek lejáratására, megtévesztő, valótlan információk terjesztésére, a választók elbizonytalanítására került bevetésre. Ami igazán félelmetessé teszi ezt az eszközt, hogy nagyon alacsony költség mellett érhető el vele viszonylag nagy hatás, még akkor is, ha a tapasztalat gyakran azt mutatja, hogy a fogadókészség az MI segítségével manipulált tartalom iránt leginkább olyanokban van meg, akiket már eleve meggyőztek.
Lássunk néhány konkrét példát az elmúlt évekből olyan manipulációs kísérletekre, amelyek jól rámutatnak az MI politikai célú alkalmazásának veszélyeire:
- 2023-ban, Szlovákiában közvetlenül a választások előtt jelent meg egy audio deepfake, amelyen állítólag a liberális Progresszív Szlovákia párt vezetője arról beszélt, hogyan tervezik manipulálni a választásokat. Egy másik - szintén hamis - felvételen pedig arról beszélt, hogyan tervezik emelni a sör árát....
- Szintén 2023-ban, Törökországban az egyik jelölt visszalépéséhez vezetett a róla készült deepfake pornográf videó.
- 2024-ben, New Hampshire-ben (USA) a választók olyan hamis automata hívásokat kaptak Joe Biden hangját utánozva, amely arra buzdította őket, hogy ne vegyenek részt az előválasztáson.
- 2024-ben, Bangladesben közvetlenül a választások előtt olyan videó jelent meg, amelyben az egyik jelölt bejelentette a visszalépését.
A példák sora hosszan folytatható lenne, de a lényeget jól mutatja, hogy a manipulált hang- és video anyagok, különösen jó időzítés mellett, akár választásokat is befolyásolhatnak. Látható az is, hogy a jelenség nem korlátozódik valamely országra vagy régióra, lényegében a világ minden részét eléri az MI generálta politikai tartalom.
(A tudományos szakirodalomban is egyre több helyen foglalkoznak a témával, lásd pl. Walker et al.: "Merging AI Incidents Research with Political Misinformation Research: Introducing the Political Deepfakes Incidents Database", 2024. szeptember. A kutatás célja, hogy elősegítse a politikai deepfake-ek széles körű katalogizálását, ezzel is támogatva, hogy a kutatók, újságírók és döntéshozók is jobban megértsék a jelenség kiterjedését és az ezzel járó kihívásokat.)
2. Miért veszélyes?
A fenti példák is mutatják az MI-vel generált politikai tartalmak veszélyeit, de érdemes ezeket alaposabban is áttekintenünk. Az Európai Parlament kutatószolgálatának (European Parliamentary Research Service) 2021-es tanulmány összefoglalja a deepfake-el kapcsolatos kockázatokat, amelyek körében - a pszichológiai és pénzügyi kockázatok mellett - számos társadalmi kockázatot is azonosít. Ez utóbbi körbe az alábbiakat sorolja:
- a média manipulációja
- a gazdasági stabilitás sérülése
- az igazságszolgáltatási rendszer sérülése
- a tudományos rendszer sérülése
- a bizalom eróziója
- a demokrácia károsodása
- a választások manipulálása
- a nemzetközi kapcsolatok károsodása
- nemzetbiztonsági károk.
Látható, hogy politikai térben megjelenő manipulált tartalmak számos, a demokratikus működés szempontjából kiemelkedően fontos alrendszert érinthetnek hátrányosan. Ez természetesen nem újdonság annyiban, hogy ez a manipulációból fakad, amely korábban is jelen volt, de az alkalmazásra kerülő MI technológiák (pl. GAN) gyors fejlődése, egészen új szintre emelte ezeket a veszélyeket.
3. Mi az a deepfake és milyen szabályok vonatkoznak rá?
Az EU MI Rendelete meghatározza a deepfake fogalmát. E szerint "deepfake" az MI által generált vagy manipulált kép, audio- vagy videotartalom, amely hasonlít létező személyekre, tárgyakra, helyekre, entitásokra vagy eseményekre, és amely egy személy számára megtévesztő módon autentikusnak vagy valóságosnak tűnne (lásd MI Rendelet 3. cikk, 60. pont).
A deepfake-k létrehozása mögött a gyakorlatban sokszor az ún. generatív hálózatok (Generative Adversarial Networks, GAN) a gépi tanulás (machine learning) egyik részterülete állnak. (A GAN-ok működéséről, magyar nyelven lásd Fazekas László kiváló összefoglalóját.)
Az MI Rendelet a deepfake ("mélyhamisításos") tartalmak tekintetében elsősorban átláthatósági szabályokat tartalmaz, amelyek 2026. augusztus 2-től válnak majd alkalmazandóvá:
az olyan MI-rendszerek alkalmazóinak, amelyek eredetinek vagy valóságosnak tűnő („deepfake”) kép-, hang- vagy videotartalmat hoznak létre vagy manipulálnak, közölniük kell, hogy a tartalmat mesterségesen hozták létre vagy manipulálták. Ez a kötelezettség nem alkalmazandó, amennyiben a használatot törvény engedélyezi bűncselekmények felderítése, megelőzése, nyomozása vagy büntetőeljárás alá vonása céljából. Amennyiben a tartalom nyilvánvalóan művészeti, kreatív, szatirikus, fiktív vagy hasonló mű vagy program részét képezi, az e bekezdésben meghatározott átláthatósági kötelezettségek az ilyen létrehozott vagy manipulált tartalom meglétének megfelelő, a mű megjelenítését vagy élvezetét nem akadályozó közlésére korlátozódnak. (lásd MI Rendelet 50. cikk (4) bekezdés, kiemelés tőlem)
A fenti konkrét rendelkezésekkel összefüggésben az MI Rendelet Preambuluma (lásd a (134) preambulumbekezdést) foglalkozik még részletesebben a kérdéssel. Ebből is látható, hogy a szabályozás egyensúlyoz az átláthatóság és a véleménynyilvánítás szabadságához való jog, valamint a művészet és a tudomány szabadságához való, a Chartában garantált jogok között, különösen, ha a tartalom egy nyilvánvalóan kreatív, szatirikus, művészeti, fiktív vagy hasonló munka vagy program részét képezi, a harmadik felek jogaira és szabadságaira vonatkozó megfelelő biztosítékok mellett. Ez utóbbi elem különösen fontos olyan esetekben, amikor más személy (beleértve a közéleti szereplőket is) kép- és/vagy hangmását használják fel az MI generálta tartalom elkészítéséhez. Az MI Rendelet ugyanakkor láthatóan nem fektet különösebb hangsúlyt a deepfake technológia politikai célú alkalmazására.
Az MI Rendelet kapcsán érdemes megjegyezni, hogy az általános célú MI-modellek fejlesztői, beleértve a rendszerszintű kockázatot jelentő általános célú MI-modellek fejlesztőit, számos kötelezettséggel néznek szembe, amely az ilyen modellek fejlesztését illeti. Ezen kötelezettségeknek való megfelelés is fontos szabályozási eszköz lehet az MI generálta tartalom jogszerűségének biztosítása kapcsán.
Az ún. platformszabályozás keretében említhetők a digitális szolgáltatásokról szóló rendelet (DSA) vonatkozó szabályai, amelyek - a jogellenes pornográf tartalom, az intim vagy manipulált anyagok nem beleegyezésen alapuló megosztásával kapcsolatos rendelkezések mellett - elvárásokat fogalmaznak meg az online óriásplatformok vagy nagyon népszerű online keresőprogramok vonatkozásában is:
[...] Az online óriásplatformnak vagy nagyon népszerű online keresőprogramnak nyilvános hozzáférést kell biztosítania az online interfészükön megjelenített hirdetések adattáraihoz, hogy elősegítsék az online hirdetésterjesztési tevékenység kapcsán felmerülő kockázatok felügyeletét és kutatását, például a jogellenes hirdetések vagy olyan manipulatív technikák és dezinformáció vonatkozásában, amelyek valós és előre láthatóan negatív hatást gyakorolnak a közegészségre, a közbiztonságra, a polgári közbeszédre, a politikai részvételre és az egyenlőségre. [...] (lásd (95) preambulumbekezdés, kiemelés tőlem)
A DSA preambuluma (lásd (104) bekezdés) szintén kitér arra, hogy
Egy másik megvizsgálandó terület az, hogy milyen lehetséges kedvezőtlen hatásokat gyakorolnak a rendszerszintű kockázatok a társadalomra és a demokráciára; ilyen lehet például a dezinformáció vagy a manipulatív és visszaélési célú tevékenységek, illetve a kiskorúakra gyakorolt bárminemű káros hatás. Ide tartoznak az információk, beleértve a dezinformációt, fokozott terjesztésére irányuló összehangolt tevékenységek – például botok vagy hamis fiókok használata szándékosan pontatlan vagy félrevezető információk előállítására, néha gazdasági előnyszerzés céljából –, amelyek különösen károsak a szolgáltatások kiszolgáltatott igénybe vevői, például a kiskorúak esetében. Az ilyen területek vonatkozásában megfelelő kockázatcsökkentési intézkedésnek minősülhet, ha egy online óriásplatform vagy nagyon népszerű online keresőprogram csatlakozik egy adott magatartási kódexhez és betartja azt. [...] (kiemelés tőlem)
A DSA konkrét kötelezettséget is előír a manipulatív tartalmak (beleértve a deepfake-t is) tekintetében, így különösen
az online óriásplatformot vagy nagyon népszerű online keresőprogramot üzemeltető szolgáltatóknak észszerű, arányos és hatékony kockázatcsökkentési intézkedéseket kell bevezetniük a 33. cikk értelmében azonosított egyes rendszerszintű kockázatokra szabva, kiemelt figyelmet fordítva az ilyen intézkedéseknek az alapvető jogokra gyakorolt hatásaira. Az ilyen intézkedések adott esetben magukban foglalhatják az alábbiakat: [...]
k) annak biztosítása, hogy valamely információ, amely olyan generált vagy manipulált kép, audio- vagy videotartalom lehet, amely számottevően hasonlít létező személyekre, tárgyakra, helyekre vagy más entitásokra vagy eseményekre, és az eredetiség vagy a hitelesség hamis látszatát kelti valaki számára, megjelenítésekor jól látható jelzések révén megkülönböztethető legyen online interfészeiken, továbbá egy könnyen használható funkció biztosítása, amely lehetővé teszi a szolgáltatás igénybe vevői számára az ilyen információ megjelölését. (lásd DSA 35. cikk (1) bekezdés k) pont, kiemelés tőlem)
Érdemes megemlíteni a dezinformációra vonatkozó magatartási kódexet is (Code of Conduct on Desinformation), amelyet eredetileg 2018-ban fogadtak el, majd 2022-ben jelentően átdolgoztak és - újabb átdolgozást követően - 2025-ben a DSA alapján is elfogadtak (lásd a DSA 45. cikkét a magatartási kódexek kapcsán). Ennek több olyan eleme van, amely az MI-vel generált, félrevezető, manipulatív tartalmakkal szembeni küzdelemben is jelentőséggel bír.
A deepfake tartalmak készítése kapcsán alkalmazandóak lehetnek az általános adatvédelmi szabályok (az EU-ban, a GDPR), hiszen ezen tartalmak elkészítése során gyakran személyes adatok felhasználására is sor kerül (pl. egy személy képmása, hangja). Ennek megfelelően a deepfake tartalom előállítsa során - ha az személyes adatok felhasználásával történik - biztosítani kell az adatvédelmi alapelvek érvényesülését, megfelelő jogalapot kell találni az adatkezeléshez, és adott esetben, a különleges adatokra vonatkozó további követelményeknek is meg kell felelni (pl. ha a felhasznált adatok biometrikus adatnak minősülnek a GDPR szerint).
Röviden érdemes megemlítenünk a politikai reklámtevékenység átláthatóságáról és célzott folytatásáról szóló uniós rendeletet (2024/900, TTPA) is, amely az elmúlt időszakban leginkább amiatt szerepelt a hírekben, mert alkalmazandóvá válására tekintettel, a jogi bizonytalanságok miatt a Meta és a Google, mint a két legfontosabb szereplő, úgy döntöttek, hogy nem engedik a politikai hirdetések közzétételét az EU-ban. (Az más kérdés, hogy ez a tilalom milyen hatékonysággal működik....) A TTPA, ha nem is tartalmi oldalról, azaz az MI-vel generált tartalmakra, illetve a deepfakre célozva, de mindenképpen fontos szabályozás a politikai hirdetésekkel kapcsolatos átláthatóság, a manipulációval szembeni küzdelem kapcsán.
Ahogy maga a jelenség nem csupán az EU-ban jelent problémát, így a szabályozás tekintetében is számos elképzelést, tervezetet, részben vagy egészben megvalósult javaslatot találhatunk. Az USA-ban jelenleg nincs átfogó szövetségi szintű szabályozás vagy éppen tilalom a politikai deepfake-ekre, de javaslatok vannak egy esetleges szabályozásra. A véleménynyilvánítás szabadsága az USA esetében fontos viszonyítási pont e tekintetben is. Tagállami szinten (pl. Kalifornia, Texas) azonban találhatunk kifejezett szabályokat a politikai célú deepfake-k kapcsán.
4. A szabályozással kapcsolatban felmerülő problémák
Látható, hogy deepfake-k jelentette egyre komolyabb kihívásra számos szabályozási megoldással igyekszik reagálni a jogalkotó, ugyanakkor azt is észlelhetjük, hogy még mindig számos megoldandó kérdés, illetve gyakorlati, jogalkalmazási probléma merül fel, így többek között:
- az MI-vel generált tartalom megjelölésével (címkézés) kapcsolatos kérdések, illetve problémák: hol és hogyan jelennek meg a címkék, és hogyan alkalmazhatók a kivételek (pl. szatíra),
- az MI-vel előállított tartalom felderítése: a felderítési módszerek gyakran nem elég hatékonyak,
- határokon átnyúló végrehajtás problémája: a joghatóság széttagoltsága és a globális platformokon keresztüli gyors terjesztés megnehezíti a hatékony jogorvoslatot,
- bizonyítékokkal kapcsolatos kihívások: a nyomozó hatóságoknak és a bíróságoknak megfelelő képzésre és eszközökre (pl. megbízható rögzítésre) van szükségük a megfelelő bizonyítékok megszerzése és a digitális bizonyítékok megőrzése, illetve a bizonyítási eljárásba vetett bizalom fenntartása érdekében,
- sérelem reparálhatatlansága: gyakran olyan következményekkel járhat ezen eszközök alkalmazása, amely utóbb egyrészt nehezen igazolható pontosan, másrészt sok esetben nem reparálható (pl. a választási eredmények befolyásolása esetén nehéz megállapítani ennek pontos hatását és kérdés, hogy az eredmények milyen módon és mennyiben vizsgálhatók felül, milyen időbeli kötöttségek mellett).
5. Milyen eszközök állnak rendelkezésre az MI-vel generált, illetve manipulált politikai tartalmakkal szembeni küzdelemben?
A deepfake-kkel szemben több oldalról lehet és kell felvenni a küzdelmet. Az Egyesült Királyság telekommunikációs hatósága (Ofcom) 2024-ben közzétett egy anyagot a deepfake-kel szembeni védekezésről. Ebben négy megközelítést vázolt a deepfake tartalmakkal szembeni közdelemben (lásd 5. ábra, 18. o.): megelőzés (prevention), beágyazás (embedding), észlelés (detection) és végrehajtás (enforcement). Ezen megközelítésekhez igazodva határozza meg az elérhető eszközöket és azokat a kulcsszereplőket, amelyek tehetnek az egyes megközelítések alapján a deepfake-kel szemben. Ezek a kulcsszereplők elsősorban az MI modellek fejlesztői (megfelelő garanciákat építhetnek be a modell fejlesztése során), illetve az online platformok (amelyek a közzététel során jutnak fontos szerephez).
Ha a brit hatóság fenti anyaga mellett, az deepfake-k kapcsán az EU vonatkozó szabályozását is megnézzük, akkor azt látjuk, hogy a deepfake-re vonatkozó konkrét szabályok elsősorban az átláthatóság felől közelítenek és a címzettjei az MI-rendszerek alkalmazói, illetve a platformok, amelyeken keresztül közzétételre kerülhetnek ezek a tartalmak. Ezen szabályok azonban nem minden esetben biztosítanak hatékony fellépési lehetőséget az MI-vel generált manipulatív tartalmakkal szemben, különösen ha annak érintettje valamely konkrét személy (pl. egy közéleti szereplő).
Rendelkezésre állhatnak természetesen a fenti szabályokon túlmutató egyéb jogérvényesítési lehetőségek is, így a személyes adatok felhasználása esetén, az adatvédelmi szabályok megsértésére tekintettel adatvédelmi hatósági eljárás kezdeményezhető, illetve a személyiségi jogok megsértése kapcsán polgári jogi igények is támaszthatók (jóhírnév megsértése miatt igényérvényesítés).
A polgári jogi igények kapcsán - a politikai célú felhasználás esetén - figyelemmel kell lenni a közéleti szereplőkre vonatkozó egyes sajátosságokra, így különösen arra, hogy a közéleti szereplőknek jellemzően többet kell elviselniük.
A közéleti szereplők körének meghatározása, illetve a személyiségi jogok kontra véleménynyilvánítás szabadsága kapcsán a vonatkozó bírói gyakorlatról lásd Halász Csenge: A közéleti szereplők személyiségi jogvédelmének aktuális kérdései, különös tekintettel a Kúria joggyakorlatára. A cikk is felhívja a figyelmet arra, hogy "az egyes internetes felületeken történő személyiségi jogsértések „súlya” az elmúlt időszakban megmutatkozik a Kúria joggyakorlatában is, tekintettel arra, hogy az egyes ügyek tényállása szerint történt jogsértések döntő többsége valamely online felületen keresztül valósult meg." Vélhetően egyre több olyan bírósági eljárással is találkozunk majd a jövőben, amely nemcsak az online felületeken keresztül megvalósuló jogsértésekre, hanem az MI használatra fókuszál.
Természetesen a véleménynyilvánítás szabadása a közéleti szereplők tekintetében sem jelenti azt, hogy az érintett személy becsületét, jóhírnevét sértő tartalmakat elő lehetne állítani. A közéleti szereplők becsületének, jóhírnevének megsértését illetően korábban kialakult joggyakorlat e tekintetben kiindulópontot jelenthet, ugyanakkor az MI alkalmazása és az érintett szereplők megjelenését, hangját utánzó (gyakran tényleg megtévesztésig hasonló) MI által generált tartalom új minőséget jelent, amelyre tekintettel a gyakorlatnak még alakulnia kell.
Az MI-vel előállított tartalomtól függően felmerülhetnek büntetőjogi vonatkozások is. Egyrészt alkalmazásra kerülhetnek a bevezetőben hivatkozott, Orbán Balázs által megosztott videó kapcsán Magyar Péter által tett feljelentésben megjelölt tényállások, azaz a becsület csorbítására alkalmas hamis hang- vagy képfelvétel készítése (Btk. 226/A.§), illetve a becsület csorbítására alkalmas hamis hang- vagy képfelvétel nyilvánosságra hozatala (Btk. 226/B.§). Bár ezek általánosságban hang- vagy képfelvétel készítésére, illetve nyilvánosságra hozatalára vonatkoznak, de ebbe beleférhet a deepfake is, hiszen ebben az esetben egy MI-rendszer felhasználásával történik a hang- vagy képfelvétel készítés. (Persze ezek mellett általánosabb tényállásként a rágalmazás (Btk. 226.§) is felmerülhet, ha a jogalkalmazó a hang- vagy képfelvétel készítést szűken értelmezné, továbbá a becsületsértés (Btk. 227.§) tényállása szintén szóba jöhet.) A kulcskérdés egyrészről a hang- vagy képfelvétel tartalma (történjen a tartalom előállítása akár MI technológiával), illetve ezen tartalom viszonya a véleménynyilvánítás szabadságához (belefér-e annak kereteibe, ha nem tényállításról van szó), továbbá a tartalom alkalmassága a becsület csorbítására. A becsület csorbítására való alkalmasság kapcsán, elsősorban a rágalmazás és a becsültsértésre vonatkozó ügyekben,
a rég megszilárdult joggyakorlat szerint a becsület csorbítására való alkalmasság objektív ismérv. A társadalomban kialakult általános megítélés, az általános erkölcsi és közfelfogás figyelembevételével kell eldönteni, hogy az adott tény állítása, híresztelése, kifejezésként használata az adott esetben alkalmas-e a becsület csorbítására. (Lásd Tuba István: A becsület büntetőjogi védelme közszereplők esetén az utóbbi évek kúriai és alkotmánybírósági döntéseinek fényében, Büntetőjogi Szemle, 2021/2. szám, 107. o., kiemelés tőlem.)
A témához részletesebben lásd pl.
- Tuba István: A becsület büntetőjogi védelme közszereplők esetén az utóbbi évek kúriai és alkotmánybírósági döntéseinek fényében (Büntetőjogi Szemle, 2021/2. szám)
- Dr. Kovács Gyula: A becsület csorbítására alkalmas hang- vagy képfelvétel készítése, illetve nyilvánosságra hozatala (Obsitios Detektívek Lapja, 2013)
- Gyulay Dániel: A közügyet érintő, objektíve becsület csorbítására alkalmas megnyilvánulások büntetendőségének megítélése: Különös tekintettel a sértési célzat értékelésére (In Medias Res, XIII. évf., 2. szám)
Zárásként érdemes rögzíteni, hogy a politikai célú MI használat kapcsán további jogorvoslati lehetőségek nyílhatnak meg a választási törvény hatálya alá eső időszakban (pl. kampányidőszak), ugyanakkor a jelenlegi szabályozás mellett ezek hatékonysága is kérdéses lehet, hiszen - ahogy fentebb erre utaltam - számos esetben a reparálhatóság nem áll fenn. A külföldi példák is azt mutatják (lásd pl. a hivatkozott szlovákiai esetet), hogy egy, a választások elé időzített deepfake kampány, bár a pontos hatása szinte mérhetetlen, de nagyon komoly károkat okozhat.