Íme a diktátor dilemmája: meg kívánják akadályozni, hogy irányított hazájuk frusztrált elitjei felkeljenek ellenük, így hát cenzúrázzák a közösségi kommunikációt. Ám egyúttal azt is tudni kívánják, miben hisznek valójában alattvalóik, így időben leszerelhetik a lázadó elemeket, mielőtt azok a rezsim megdöntésére alkalmas forradalmat indítanának be.
E két stratégia heveny feszültségben van egymással. Minél többet cenzúrázol, annál kevesebb fogalmad lesz a népesség érzéseiről, és annál könnyebben hagyod figyelmen kívül az intő jeleket, mielőtt az emberek ellepnék az utcákat. A diktátorok úgy próbálkoznak a kör négyszögesítésével, hogy nyilvános közvélemény-kutatásokat, felméréseket, nemzeti konzultációkat szerveznek, ám mindezek elég alacsony hatékonysággal térképezik fel a népesség elméjét.
Itt kerül be az MI a képbe. 2018-ban Yuval Harari megjósolta, hogy az MI turbó fokozatra kapcsolhatja a diktatúrákat a közhangulat feltérképezését szolgáló adatok kibányászásával és elemzésével. A diktátorok így elébe mehetnek a változásoknak, és leszerelhetik az elégedetlenséget, mielőtt azok nyílt színi lázadásba torkollnának.
Harari szerint az információ egyeduralom alatt való koncentrációja jelenti a XXI. században a diktátorok helyzetelőnyét, ám a téma iránt érdeklődést mutató politológusok mereven cáfolják eme állítást. Tavaly Henry Farrell, Jeremy Wallace és Abraham Newman egy részletes lebontását fogalmazták meg Harari állításainak a Foreign Affairs akadémiai folyóiratban.
Ők úgy érvelnek, hogy minden diktátor, aki izgatottan várja az MI-regnum beköszöntét, alapos fejre esésnek örvendhet majd, mikor kiderül, hogy az MI-re támaszkodó közhangulat-elemzők eredendően részrehajló adatokat lesznek csak képesek kinyerni a lakosságból. Egy diktatórikus elnyomás alatt sínylődő nép jól tudja, hogy amennyiben elégedetlenségének merészelne tényleges hangot adni, azonnal az életét vagy legalábbis személyi szabadságát kockáztatja, így automatikusan cenzúrázza magát a szociális médiában. Ez még akkor is igaz, ha a büntetés nem fizikai és nem maga a diktátor rója az áldozatra: ha tudod, hogy bizonyos legépelt szavak vagy kifejezések az automatikus cenzúrázásodat vonják magukkal, miért is próbálkoznál a valós érzéseidet körbeíró fogalmak használatával?
A „Szemét be, szemét ki” bölcsessége 1957 óta terjed az informatikus közösség körében. Ennyire régóta tudjuk, hogy rossz adatok betáplálása a komputerbe helytelen eredményt keletkeztet. Mégis, az MI-rajongók számára ez egy befogadhatatlan igazság: feladván az adatok manuális betáplálásával, melyeket gondos válogatást és áttekintést követően állítanak az MI szolgálatába, az MI-ipar egyszerűen a tömeges (megj: ChatGPT esetén 410 milliárd), komplett internetről lekapart adattengerrel tömi az algoritmusok „fejét”.
Megj: emlékezzünk rá, hogy a mindenkit ámulatba ejtő ChatGPT-t többmilliárd Reddit kommenten trenírozták be alkotói.
Ám még több hasznavehetetlen adat betáplálása az eleve kezelhetetlen adathalomba nem javítja annak megbízhatóságát. A „Szemét be, szemét ki” elv a számítástechnika vastörvénye, nem tudod csak úgy felszámolni azt még több hulladék betáplálásával a tréninganyagba.
Mikor döntéshozatalt megtámogató MI-ről beszélünk – amikor az algoritmus megmondja az embereknek, mit és hogyan tegyenek –, akkor a szemét be, szemét ki alapelvét is messze alulmúló eredményekhez jutsz. Szemetet táplálsz be, szemetet kapsz vissza, majd ezt a hulladékot újból visszaépíted a rendszerbe. Az egyik MI kiköpi a hamis információt, majd egy másik MI felmarkolja azt és elkezdi használni a rossz konklúziók megerősítésére.
Hogy mindezt akcióban lássuk, vegyük példának a mélyen rossz prediktív bűnüldözés rendszerét, melyet szerte a nagyvárosokban hosszú ideje alkalmaznak. Ezek a rendszerek a rendőrök szolgáltatta adatokat szippantják be, majd megjósolják, a város mely területein várható a bűnözés megemelkedése. Odavezénylik a rendőröket megszeppent fekete kisgyerekeket falhoz állítani vagy békés autósok járműveit átkutatni, akik közben úgy csinálnak, mintha marihuánaszagot éreznének.
A probléma, hogy a rendőrség által detektált bűn nem egyenlő a tényleges bűnnel. Csak ott lelsz bűnre, ahol keresed is. Példának okáért, sokkal több házastársi erőszak-bejelentés érkezik a rendőrséghez sűrűn lakott és tömbházak tarkította városrészekből. Ez nem azért van, mert a társasházakban több nőverő él, hanem mert a kertvárosokhoz képest nagyobb itt a népesség koncentrációja és a szomszédok is könnyebben hallhatják a házastársak balhéját a falakon át.
Szóval ha a rendőrök eredendően részrehajló törvénykezést alkalmaznak, e részrehajlást erősítik az általuk detektált bűncselekmények is. Ha az algoritmus által veszélyesnek ítélt tömbben rendszeresen állítasz falhoz fekete kisgyerekeket és forgatod ki azok zsebeit, nyilván minden egyes lefoglalható bicska és pénztárca az előre bemért területen fog előkerülni a nadrágzsebekből.
És ez még az MI nélküli élet. Most hozzuk össze az MI-t a prediktív bűnüldözéssel: etessünk meg egy rakás „zsebben talált bicska” adatot a géppel, hogy jósolja meg nekünk, hol várható legnagyobb eséllyel újabb zsebben rejtegetett bicskák felbukkanása, s készséggel kiköpi nekünk ugyanazt a háztömböt, ahol még több fekete lurkót állíthatunk falhoz, hogy átkutassuk a zsebeiket. Minél több bicska akad horogra az adott helyen, annál biztosabb, hogy legközelebb is ugyanott támad kedve mindenkinek vágószerszámmal a zsebében szaladgálni.
Ez az, amit Patrick Ball a Human Rights Data Analysis Group-tól empirikusra mosásnak nevez. Ragadj meg egy eleve részrehajló adathalmot, tápláld be az algoritmusba, s folyamatosan kapod az arcodba az újabb meg újabb, eredendő diszkriminációdat visszaigazoló eredményeket. Ahányszor csak valaki részrehajlással vádol, nyugodtan a pofájába mondhatod, hogy az adataid nem tévedhetnek, hiszen a matematika nem lehet rasszista.
A HRDAG temérdek kiváló kísérletet végzett, melyek kristálytisztává teszik az eredendően részrehajló algoritmusok valóságát. A lakosság droghasználatát felmérő nemzeti hivatal Amerika aranystandardjául szolgáló statisztikákat szolgáltat. Kristian Lum és William Isaac 2010-ben Oakland bűnüldözési statisztikáit vizsgálta a kábítószerrel való visszaélés szempontjából, majd felkérték a Predpol-t, egy vezető prediktív bűnöldözési rendszer gyártóját, hogy jósolja meg, mely városrészek lesznek 2011-ben Oakland kiemelt kábítószer-gócpontjai.
Egy évvel később összevetették a predikciókat a valós, rendőrség által tett jelentésekkel. A kétfajta térkép nem is különbözhetne jobban egymástól:
A Predpol azt javasolta a rendőröknek, razziázzanak az elsődlegesen feketék és a munkásosztály lakta környékeken, míg az NSDUH (droghasználatot feltérképező hivatal) statisztikái szerint Oakland-szerte lefüleltek drogosokat, s az egyetlen, koncentrált kábítószer-fogyasztó zónának a Berkeley egyetem diákvárosa számított.
A valóságnál is érdekesebb azonban, mi történne, ha a Predpol-ra bíznánk a népesség fogyasztási kontrollját: a rendőrök egyre többet s többet razziáznának a feketék lakta környékeken, így természetesen nagyobb mennyiségű drogot is találnának, mely felfedezés tényét visszaplántálván a rendszerbe egyre inkább megerősítik azt tévedéseiben.
Más szavakkal, az információhulladék folyamatos betáplálása és kivétele koncentrált elfogultságot hoz létre. Egyetlen apró helytelenség az eredeti tréningadatokban, s az önmagát gerjesztő visszacsatolás-rendszer egy teljesen fals predikciós szisztémát hív létre. Hasonló az algoritmusok viszonya az adatokkal, mint a reaktoré a plutóniumhoz. Elképesztő energia rejtőzik benne, de ha robban, az egész környék toxikus radioaktív hulladékká alakul.
Létezik egy kiváló megnevezés az MI-adatokon trenírozott MI-re: „Habsburg-MI”.
Habsburg MI: olyan MI, melyet más MI-k által kiköpött szöveganyagokon treníroztak, ebből kifolyólag az általa prezentált output elkezd előbb-utóbb egy mutáns szóömlenyre hasonlítani – hasonlóan a belterjes szaporulatot művelő Habsburg-házhoz.
Ez visszavezet minket a diktátor dilemmájához. Ha alattvalóid folyamatosan cenzúrázzák magukat, hogy elkerüljék a megtorlást vagy az algoritmikus árnyék-bant, akkor az MI, melyet a posztjaikon trenírozol, hogy kifürkészd gondolataikat is szükségszerűen hamis információkat fog közölni részedre. Így olyan intézkedéseket fogsz foganatosítani, melyek az embereket haragra gerjesztik és még instabilabbá teszik a hatalmad.
Legalábbis ez volt Farrell elmélete. Sok-sok éven át az MI és a diktatúrák viszonya közti vita ennyit jelentett: egyik elmélet a másik ellen. De immár empirikus bizonyítékok is rendelkezésünkre állnak, köszönhetően a Eddie Yang-féle „A Diktátor Dilemmája” c. tudományos publikációnak.
“A DIKTÁTOR DILEMMÁJA” LETÖLTÉSE
Yang felfedezett egy módszert a különféle elméletek próbájára. 10 millió kínai közösségimédia-posztot elemzett a pandémia kezdetekor. Ekkor még a vállalatok, mint a Weibo nem cenzúrázták a járvánnyal kapcsolatos posztokat politikai megrendelésre. Yang ezen posztokat értékes pillanatképeknek tartja a nyilvános diskurzus minőségéről: mivel nem vonatkozott cenzúra a pandémiával kapcsolatos csevegésre, a kínai felhasználók bármit kirakhattak anélkül, hogy cenzúrázni kellett volna magukat vagy megtorlástól és törléstől kellett volna tartaniuk.
Yang kézhez kaparintotta az egyik kínai szociálismédia-vállalat cenzúra-modelljét, mely alapján döntöttek az eltávolítandó posztokról. E modellt alkalmazva az eredeti, cenzúrázatlan bejegyzésekre Yang képes volt megállapítani, hogy konkrétan mely tartalommal, kulcsszavakkal bíró bejegyzéseket lett tilos az idő múltával közzé tenni.
Yang így megismerhette a valós közvélekedést a kínai pandémia-kezelés kapcsán, és összehasonlíthatta azt a kínai kormány által képzelt közhangulattal, melynek irányába a cenzúra feltornászása által a népet terelni kívánták.
Innentől fogva Yang könnyű szerrel játszadozhatott a modellel és fedhette fel, hogy a preferencia-falszifikáció által (amikor az emberek kényszerből meghamisítják valós érzéseiket), illetve öncenzúrájuk végett a valóságtól messze eltérő információkat szolgáltatnak a rezsim részére. Minél elnyomóbb a hatalom, s minél többen kényszerülnek szélsőséges öncenzúrára, annál rosszabb eséllyel térképezi fel a rendszer a valós közhangulatot.
Mi több, még több hamis adat betáplálása a rendszerbe nemhogy megoldaná a problémát, hanem súlyosabbá teszi.
Van még lejjebb is: Yang egy krízis-forgatókönyvet is lemodellezett, amelyben az emberek egyszer csak abbahagyják az öncenzúrát, és újfent valós érzéseikről kezdenek diskurálni, miután a hatalom odáig fokozta az elnyomást, hogy immár nem törődnek a helytelennek ítélt viselkedés és szóhasználat következményeivel. Több diktatúrában lezajlott már ilyesféle szituáció a szociális média térhódítása előtt. Attól függően, hogyan kezeli a rezsim a problémát, az eredmény lehet egy újabb évtized uralom, vagy pedig guillotine a nyakukon.
Az MI annyiban bonyolítja a helyzetet, hogy krízishelyzetben produkálja a legrosszabb eredményeket. A status quo-nak megfelelő adatok belé plántálását követően, amikor az emberek szándékosan elnyomják valós gondolataikat, az MI-nek fogalma sincs, hogy kezelje a nyers igazságot. Mind a cenzúrázandó elemek kiválasztásával, mind a közhangulat feltérképezésével csúfosan felsül.
Akad egy érdekes mellékzönge: Yang a Twitterről is lemásolta egy rakás kínai felhasználó posztjait, akiket a kínai kormány nem tud cenzúrázni, és beplántálta ezeket is a modellbe.
Yang predikciója szerint a cenzúrázatlan adatok pontosabban feltérképezik a közhangulatot, s ez így is történt, de csak minimális léptékben. Az eredeti, kilúgozott Weibo posztok továbbra is domináns módon félrevezették az MI-t konklúziója megalkotásában.
Farrell úgy kommentálja a kísérlet eredményét, hogy a világ egyre inkább feltöltődik szeméttel és zajjal, így a korrekt tudás egyre ritkább és értékesebb erőforrássá alakul.
A korrekt tudás forrása pedig kizárólag az emberiség lehet, nem pedig a hamis adatokból fals következtetést levonó MI-algoritmus. Ebből kifolyólag egy demokratikus társadalomban a gépi tanulás csodája ugyanúgy parazitikus leszívója az ember alkotta tudásnak és információnak, ahogy egy klasszikus diktatúra.