Érdekes elgondolkodni azon, hogyha betáplálnánk egy szoftverbe az első reggeli gondolatunkat, vajon milyen folytatást szánna neki a mesterséges intelligencia (MI). Elvezetne-e az Európai Unió felaprózódásáig? Esetleg egy új bolygóra való kitelepítésig? Képes volna-e egyetlen ártatlan mondatot továbbgondolva egy globális mértékű összeesküvés-elméletet gyártani? És vajon hogyan hatna az MI-vel operáló rendszerek előretörése a saját hétköznapjainkra? Alábecsüljük az emberi hiszékenységet, ha úgy véljük, sehogy.
Fake news vs. terrorizmus
A virtuális dezinformáció olyan mértéket ölt napjainkban, hogy már-már ironikusnak számít olyasfajta kijelentéseket tenni, miszerint a lokális tudat bővülésével egyre többet tudunk nemcsak közvetlen környezetünkről, hanem a különböző földrészeken zajló eseményekről is. Pedig ez valójában nem több, mint pusztán illúzió. Hétköznapjainkat, a világról alkotott képünket olyan egyszerű dolgok határozzák meg, mint az, hogy milyen platformokról szerezzük az információkat.
A Pew Research Center újdonsült tanulmánya alapján az amerikai lakosság megközelítőleg hetven százaléka véli úgy, hogy az álhírek jóval nagyobb kockázattal járnak, mint például a terrorizmus, félelmeik pedig sajnos nem teljesen alaptalanok. A technológia fejlődésének köszönhetően már a legóvatosabbak sem érezhetik biztonságban magukat. Könnyen előfordulhat, hogy a mesterséges intelligencia, ha nem is közvetlenül veszélyezteti magát az újságírást, felgyorsíthatja az álhírgyártás folyamatát.
1984-ből 2045 és Brexit egy kicsit másképp
Az álhírgyártás és a mesterséges intelligencia összefonódásának veszélyére 2019 februárjában a Guardian egyik cikke is felhívta a figyelmet. A cikk azt az esetet taglalta, hogy az OpenAI nevű nonprofit kutatóintézet munkatársai – többek között Elon Musk, Reid Hoffman és Sam Altman – egy új MI modellről, név szerint a GPT2-ről számoltak be a nyilvánosságnak, amely egészen egyedi algoritmusok alapján működik. A GPT2 szövegalkotó generátor először akkor hökkentett meg mindenkit, mikor George Orwell legendás politikai szatirikus regényének, az 1984-nek bevezető mondatát betáplálták a szoftverbe. A történet, amely a hidegháború szorításában megszületett borongós disztópia képét sugallta, egyből egy 2045 Kínájában játszódó science-fictionné alakult át a program jóvoltából.
Egy másik ártatlan próbálkozás ébresztett rá mindenkit arra, hogy a GPT2-vel nem ártana óvatosan bánni. Ugyanis amikor a Guardian egyik Brexitről szóló cikkének első bekezdéseit, valamit Jeremy Corbyn, a brit Munkáspárt vezetőjének szavait töltötték fel a rendszerbe, az már az Európai Unióból való határozott kiválásról írt, amelyet még egy királynői beszéddel is megerősített.
Vitathatatlan, hogy az OpenAI találmánya úttörőnek minősül a mesterséges intelligencia világában. Egyértelműen elősegítheti az infokommunikációs szektor bizonyos mértékű felszabadulását, nagy segítséget nyújthat például az adatújságírásban, melynek következtében az újságírók nyugodtan koncentrálhatnak az átfogóbb, oknyomozó munkákra. Azonban, mint minden eszköz, a GPT2 is kétélű fegyverré válhat, ha olyanok kezébe kerül, akik etikátlan módon akarják azt felhasználni. Nagy igazság rejlik a világhírű izraeli történész, Yuval Noah Harari szavaiban, miszerint:
“Az embernek mindig is az volt az erősebb oldala, hogy feltaláljon valamit, s nem az, hogy bölcsen használja azt.”
A dezinformáció olyannyira megfertőzheti életünket, mintha csak vírusként terjedne a megtévesztés, és még csak nem is unatkozó egyetemisták időtöltésének eredményeképpen, hanem egy szoftver által. Mivel a gépek tempójával egy ember sem képes felvenni a versenyt, soha nem látott méreteket ölthet a post-truth a virtuális világban.
A felülről szerveződő szabályozás kérdése
Nem könnyű egy ilyen globális szintű problémára megfelelő megoldást találni. Az amerikaiak közel negyvenhét százaléka a közösségi médián keresztül jut információkhoz, és ez még csak az Egyesült Államok. Meglehet, a Facebook, a Google és a Twitter igyekszik gátolni az álhírek terjedését, ígéretesnek tűnő, komplex statisztikai modelljeik egyelőre nem váltották be a hozzájuk fűzött reményeket. Eközben pedig még szó sem esett arról, milyen következményekkel járna, ha a későbbiekben rossz kezekbe kerülne egy GPT2-féle szövegalkotó generátor.
A „hagyományos” és az MI-rendszerek által generált fake news kapcsán is felmerülhet a kérdés, hogy a kormányzati szabályozás mennyiben csökkentené terjedésüket és kínálna valódi megoldást. Szemléletes példaként szolgál ezügyben Szingapúr politikája. A délkelet-ázsiai városállam kormánya 2019 áprilisában tett javaslatot az online hamisításról és manipulációról szóló törvény bevezetésével kapcsolatban, melyet rá egy hónapra el is fogadtak. A törvény alapján azok, akiket álhírgyártáson kapnak, akár egymillió szingapúri dolláros – ami nagyjából 750 ezer amerikai dollárnak felel meg – pénzbírsággal büntethetők, illetve tíz éves szabadságvesztést is kiróhatnak rájuk. Valljuk be, mindez elég jó érv amellett, hogy valaki ne akarjon túl könnyelműen féligazságokat közzétenni, még a GTP2 segítségével sem.
A centralizált sajtófelügyelet veszélyei
Maga a kezdeményezés első olvasatra talán sokak számára biztatónak tűnhet, mivel a szingapúri kormány a törvény kapcsán amellett érvelt, hogy általa megóvhatják az állampolgárokat az álhírektől, emellett hozzájárulhat az etnikai és vallási konfliktusok csökkentéséhez. Ebből a szempontból a törvény valóban pozitív.
Ugyanakkor nem szabad figyelmen kívül hagyni a kritikus hangokat sem, amelyek jócskán találnak kivetnivalót az álhírekről szóló törvényben. Legfőképpen az annak következményeképpen létrejött centralizált sajtófelügyelet lehetőségét ellenzik, vagyis azt, hogy Szingapúr kormánya döntené el, mi számít releváns hírnek és mi nem. A kormány mindezt cáfolta, arra hivatkozva, hogy a leendő jogszabály csakis hamis ténymegállapításokra korlátozódna, és nem befolyásolná a véleménynyilvánítás szabadságát. A szakértők szerint azonban a törvény túlságosan homályos. Chong Ja Ian professzor, szingapúri politológus számos olyan pontra hívta fel a figyelmet, amelyek túlzottan széles teret engednének a kormánynak a törvényjavaslat szerint.
Szingapúr példája abból a szempontból is jelentős, hogy a korábban említett platformok, így a Facebook, a Google és a Twitter regionális központja is Szingapúrban található, továbbá kijelölt szingapúri székhellyel rendelkezik a BBC, a Financial Times, a Wall Street Journal és a Reuters is. Ha a kormány arra kötelezné ezeket a felületeket, hogy töröljék mindazon híreket, amelyek szerintük nem felelnek meg a valóságnak, azzal meglehetősen kibővítenék a cenzúra fogalmát. Arról nem is beszélve, hogy a törvény könnyen átterjedhet a privát beszélgetésekre, például olyan csevegő applikációkra, mint amilyen a WhatsApp.
Az említett példák azt mutatják, hogy egy elméletileg modernizációs eszköznek tetsző indítvány könnyen a visszájára fordulhat, ha a kormány próbálja orvosolni az efféle kibernetikai problémákat. Marad a kérdés, hogy akkor mi lehetne megfelelő eszköz a fake news, és az azokat előállító MI-rendszerek megfékezésére.
Jó szoftver és rossz szoftver
Szemmel láthatóan nem egyszerű feladat az MI-rendszerek által előállított fake news esetét megfelelően orvosolni, elvégre már az is egy igencsak komplex kihívásnak bizonyul, hogy képesek legyünk fölvenni a versenyt az emberek által közvetlenül gyártott álhírekkel. A kormányzati beavatkozás lehetővé tétele sokakból – érthető módon – ellenérzéseket váltana ki.
Ugyanakkor könnyen megtörténhet, ami a kibertérben nem egyszer végbement már az évek során, mégpedig az, hogy a két véglet egymás ellen veszi fel a harcot. Ahogyan az internetnek is létezik sötét oldala (dark web), léteznek fehér és fekete csuklyás hackerek, úgy az MI a jó oldalon állva fölveheti a versenyt a mesterséges álhírgyártással is. Az úgynevezett „fact-checker” eszközök, melyeket mostanában igyekeznek fejlesztők és programozók tökéletesíteni, éppen ezt a célt szolgálnák.
Ezt kísérli megvalósítani a Bronstein-féle GoodNews, illetve a Fandango project is, melynek fő kutatója Francesco Nucci, az olasz Engineering Group alkalmazáskutatási igazgatója. A projekt eszközeit jelenleg a spanyol CIVIO nonprofit szervezet, az olasz ANSA hírügynökség és a belgiumi VRT teszteli. A csapat olyan szoftvereket kíván kiépíteni, amelyek három fő komponens mentén segítenek az újságíróknak, tényfeltáró riportereknek felismerni, hogy mikor ütköznek álhírekbe.
Filozofikus igazságkezelés
A szoftver először is a kérdéses tartalom formáját ellenőrzi le aszerint, hogy vajon manipulált képeket, videókat használtak-e föl benne Photoshop vagy bonyolultabb technikák révén. Másodjára a Fandango a tartalom hamis állításait vizsgálja meg, összehasonlítva a bizonyos cikket más azonos témában íródott tartalommal, így tekintve át, mennyi valóságalapja van az adott hírnek.
A harmadik komponens minősül a legprecízebbnek, melyben a Fandango a lehető legtöbb nyílt európai adatforrást összekapcsolja. Ennek köszönhetően könnyű lesz igazolni vagy éppen megcáfolni, hogy egy hírben valós statisztikai adatokat alkalmaznak akár bűncselekményekre vonatkozó állítások kapcsán – tegyük fel, a bűncselekmények jelentős hányadát külföldi bevándorlók követik el – vagy éppenséggel a European Copernicus műholdak adatait egy-egy éghajlatváltozási vita kapcsán.
Nucci szavaival élve:
„A fake news nem adatok és algoritmusok matematikai kérdése, ámde rendkívül filozofikus kérdése annak, hogyan kezeljük az igazságot.”
Mesterséges megoldás… Elég fontos?
A leírtakból kifolyólag nem pusztán etikai, hanem társadalmi és piaci szempontból is előnyös volna megoldást találni a mesterséges intelligencia és az álhírek szövetségének elkerülésére. Amint láthatjuk, a mesterséges problémára minden bizonnyal mesterséges megoldással fog reflektálni a tudomány. A kérdés már csupán annyi, hogy maga a társadalom tartja-e olyan fontosnak a dezinformáció megfoghatatlan veszélyét, mint a globális hanyatlás azon rizikófaktorait, melyek sokkal inkább a szemünk előtt vannak.
Ha tetszett a cikk, ezt is figyelmébe ajánljuk: Hogyan befolyásolhatja a mesterséges intelligencia az újságírást?
Kép forrása: Shutterstock
Címkék:álhírgyártás, dezinformáció, Facebook, fact-checker, fake news, Fandango, Francesco Nucci, Goodnews, Google, GPT2, hackerek, Harari, mesterséges intelligencia, OpenAI, Pew Research Center, post-truth, Szingapúr, the Guardian, Twitter