A Forbes Deal vendége Keleti Artúr kiberbiztonsági szakértő, az ország legnagyobb IT-biztonsági konferenciájának alapítója. Zsiborás Gergővel beszélgettek a tökéletes titokról, arról, hogy mit ér a pénz, ha rossz a karma, és hogy képes lesz-e az erkölcs lekorlátozni az AI-t.
Mi a titok valódi természete?
A digitális korszak egyik legnagyobb illúziója, hogy létezhet tökéletes titok. A valóság ezzel szemben az, hogy a titok nem maga az információ, hanem annak kontextusa: ki, mikor, milyen helyzetben és milyen normák mentén fér hozzá. Ez a felismerés alapjaiban kérdőjelezi meg mindazt, amit a kibervédelemről és az adatbiztonságról gondolunk. A titok nem egy bináris állapot – nem egyszerűen „védett” vagy „nem védett”.
Ugyanaz az információ lehet jelentéktelen az egyik pillanatban, és kritikus értékű a másikban. Az időzítés, a hozzáférők köre és a társadalmi normák mind alakítják az értékét. Ez az oka annak, hogy a digitális rendszerek – amelyek jellemzően statikus szabályok mentén működnek – eleve hátrányból indulnak: nem képesek leképezni az emberi világ komplexitását.
Például a „csak édesanyám ne tudja meg, hogy dohányzom” típusú titok tipikusan olyan, hogy bizonyos kontextusban, bizonyos emberek bizonyos normáit sértve máris titok, de másnak már nem az.
Kibervédelem: absztrakt kockázat, valós következmények
A kibervédelem egyik legnagyobb kihívása, hogy túl absztrakt. Egy adatlopás nem vált ki azonnali érzelmi reakciót – ellentétben egy fizikai fenyegetéssel. Emiatt a döntéshozók gyakran halogatják a befektetéseket, vagy kompromisszumokat kötnek.
A paradoxon lényege, hogy a legjobb kibervédelmi beruházás eredménye az, hogy „nem történik semmi”. Ezt viszont nehéz értékesíteni egy üzleti környezetben. A biztonság így gyakran költségként jelenik meg, nem pedig stratégiai befektetésként. Közben a valóság egyre nyersebb. A kiberhadviselés már nem elméleti lehetőség, állami és nem állami szereplők képesek kritikus infrastruktúrákat megbénítani, tömeges adatokat kiszivárogtatni, akár fizikai rendszereket manipulálni. A határ a digitális és a fizikai világ között gyakorlatilag eltűnt.
„Az adatok meg a rendszerek védelme túl absztrakt az átlagemberek, de a vezetők számára is. Gondolj csak bele: ha azt mondom, hogy most nyúlják le az adatodat, akkor nem érzel semmit. De ha azt mondom, hogy a gyerekedet más várja az óvoda előtt, akkor azonnal fölmegy az adrenalin, és intézkedsz. Erre van biológiai késztetésed.”
Keleti Artúr szerint a mesterséges intelligencia egyszerre jelent megoldást és új kockázatokat az információbiztonság világában. Kiindulópontja, hogy a digitális rendszerek ma alapvetően képtelenek kezelni a titkok valódi természetét, mert nem értik az emberi kontextust: azt, hogy ki, mikor és milyen szándékkal fér hozzá egy információhoz. Éppen ezért a jövőben szükség lehet olyan AI-rendszerekre, amelyek az emberi gondolkodáshoz hasonló módon képesek mérlegelni ezeket a helyzeteket.
A technológia fejlődése már eljutott arra a szintre, hogy bizonyos esetekben az AI hatékonyabban védhet meg adatokat, mint az emberek. Ugyanakkor ez a bizalom korántsem problémamentes. Az AI működése nem determinisztikus, vagyis nem teljesen kiszámítható: képes hibázni, „hallucinálni”, és döntéseit sokszor nehéz visszakövetni. Ráadásul viselkedését értékrendek is befolyásolják, amelyek nem feltétlenül átláthatók vagy egységesek.
Különösen aggasztó lehet, hogy egyes rendszerek akár „besúgóként” is működhetnek, ha úgy ítélik meg, hogy egy adott információ megosztása indokolt. Ez felveti a kérdést: kinek az erkölcsi normái alapján döntenek ezek a modellek?
Keleti szerint minél fejlettebb egy AI, annál nehezebb kontrollálni. Bár jelenleg még képesek vagyunk irányítani ezeket a rendszereket, hosszabb távon ez egyre bizonytalanabbá válhat. Ez nemcsak technológiai, hanem politikai és gazdasági kérdés is: az államok számára kulcskérdés, hogy mennyire tudják saját AI-rendszereikkel biztosítani szuverenitásukat.
„Van már olyan mérési technika, amivel azt mérik, hogy az egyes modellek mennyire hajlamosak a besúgásra. Képzelj el egy gyógyszeripari céget, ahol elemezgeti az AI az e-maileket, és egyszer csak talál egy csomó gyanús dolgot, ami arra utal, hogy olyan kísérletek folytak, amik nem felelnek meg a törvényeknek. És ezek a mérések azt mutatják, hogy ezek a modellek hajlamosak e-mailt küldeni mondjuk egy hatóságnak, vagy feljelentésszerűséget a rendőrségnek, esetleg a sajtónak.”
Az AI kapcsán felmerül a digitális szuverenitás kérdése is. A világ jelenleg néhány nagy technológiai központ – elsősorban az Egyesült Államok és Kína – dominanciája alatt áll. Egy kisebb ország számára saját, teljes értékű nyelvi modell fejlesztése rendkívül költséges és komplex feladat.
A reális út inkább a specializáció: olyan területek megtalálása, ahol egy ország vagy régió versenyelőnyt tud kiépíteni. Ilyen lehet például az AI-biztonság vagy a specifikus iparági alkalmazások fejlesztése.
Ugyanakkor a függőség kockázata valós. Ha a digitális infrastruktúra és a tartalom idegen rendszereken fut, akkor egyetlen döntéssel elérhetetlenné válhat. Ez nemcsak technológiai, hanem kulturális és gazdasági kérdés is.
Az adás tartalmából
0:00 – Beköszöntő
1:52 – A tökéletes titokról, az AI hallucinációjáról és kiberfegyverekről.
26:40 – Az adatvédelem absztrakciójáról, az eredményes kibervédelem láthatatlanságáról, nemzetbiztonságról és szuverenitásról.
41:11 – Információbirtoklásról és közösségről, kibertérről és háborúkról, és arról, mit ér a pénz, ha rossz a karma.
01:25:51 – Hovány Mártonnal az EY-díjáról, példaképségről és a Hovány Csoportról (támogatói tartalom.)
Elindult heti podcastunk, a Forbes Money Péller Andrással, ami minden szerdán friss, a piacokat és a pénztárcánkat érintő legfontosabb és legérdekesebb témákkal foglalkozik.
A Forbes Deal előző vendége Ditz Edit, producer volt. Regisztrálj a Forbes.hu-ra, és kövesd csatornáinkat a YouTube-on és a Spotifyon!