A kiberbiztonság napjainkban az egyik legfontosabb fogalommá vált a biztonságpolitikában és más szakterületeken. Mára a mesterséges intelligencia olyan fejlett szintre ért el és annyira széleskörben hozzáférhetővé vált, hogy elkerülhetetlen a használata a kibervédelemben. Kezdetben a mesterséges intelligenciának csak a gépi tanulás (machine learning) alágát használták fel, hogy monitorozzák a felhasználói interakciókat ezzel kiszűrve egy esetleges betörést a rendszerbe vagy engedély nélküli hozzáférést bizonyos adatokhoz. A machine learning előnye, hogy egy emberhez képest elképesztően sok adatot tud rövid idő alatt feldolgozni és a nap 24 órájában dolgozik, ez tökéletessé tette erre a feladatra. A generatív AI-ok megjelenésével új korszak kezdődött hiszen ezek az AI-ok folyó szöveget tudnak alkotni és így a védelmi oldalon történő felhasználást is megkönnyítették, de ezzel egyidőben a csalások és támadások száma is megnőtt mesterséges intelligencia felhasználásával.
A gyakorlati felhasználásban ez azt jelenti, hogy a generatív AI segítségével például az AI ír egy jelentést, hogy adott informatikai rendszerben az elmúlt tetszőleges időtartamban volt-e bármi féle rendellenes tevékenység és ha esetleg akadt ilyen akkor megoldásokat is kínál a szakembereknek. Ennek a használatával drasztikusan lehetett javítani a nagy informatikai rendszerek felügyeletének a hatásfokát és gazdaságosságát. A mesterséges intelligencia egyik kulcsszerepe a prediktív elemzésekben rejlik a machine learning mellett. Ennek a lényege, hogy az AI mivel folyamatosan figyeli a rendszert stratégiákat tud kidolgozni arra, hogy a jövőben milyen típusú fenyegetések várhatóak az informatikai rendszer ellen és ezekkel szemben mi lenne a leghatékonyabb védelmi eljárás. Mindemellett az emberi faktor sem elhanyagolható és egyedül az AI nem sokat ér a kiberbiztonságban egyelőre jelenlegi tudásunk szerint. Tehát a mesterséges intelligenciával manapság csak a szakemberek munkáját tudjuk megkönnyíteni.
A támadások terén megoszlik a szakértők véleménye hiszen nincs konkrét bizonyíték minden esetben, hogy használtak AI-t a támadás során. Legtöbbször az elkövetés módja és eszköze az, ami következtetni engedi a szakértőket, hogy mesterséges intelligenciát alkalmaztak egy támadás során. Egyik olyan eset amikor bizonyítottan AI-t használtak egy kibertámadáshoz az a 2021-ben fejlesztett WormGPT volt. Ez a mesterséges intelligencia modell nagyon hasonlít a sokak által ismert ChatGPT-hez, ennek is lehet olyan feladatot adni, hogy megadott paraméterek szerint generáljon egy szöveget. Ez olyannyira jól ment az AI-nak, hogy tökéletesen tudta utánozni az emberi szóhasználatot és így olyan üzeneteket tudott küldeni többek között emailen, amiket a spam-szűrők nem tudtak megkülönböztetni a valós üzenetektől. Ezzel tehát az adathalász kiber bűncselekmények sokkal hatékonyabbak tudtak lenni, főleg, hogy ezeknek a phishing emaileknek a fő célpontjai vállalatok voltak és a tőlük való információszerzés.
Azonban nem csak a rosszindulatú felhasználás szüli ezeket a programokat, például fejlesztenek ilyeneket az IBM-nél is többek között. Ezeknek a fejlesztéseknek a célja, hogy fel tudjanak készülni a jövőbeni fenyegetésekre és hogy talán egy lépéssel a támadók előtt járhassanak a védelmi mechanizmusok tekintetében. A program, amit itt kifejlesztettek a DeepLocker nevet viseli és a lényege, hogy teljesen új és nagyon hatékony kitérőtechnikákat alkalmaz a víruskereső szoftverek ellen. Az IBM kísérletében egy ártalmatlannak tűnő videókonferencia szoftverbe rejtették és a kísérletben résztvevő emberek egyikének sem észlelte a számítógépére telepített vírusirtó program. A másik fontos innováció az a célzott támadás, ami csak akkor aktiválódik, ha a program észleli az áldozat arcát, hangját vagy egy előre megadott földrajzi helyet. Az ilyen rendszert mély neurális hálózatnak nevezik (DNN) és ez teszi lehetővé, hogy rejtve maradjon a különböző vizsgálatok során. A másik nagy előrelépés, amit felfedeztek az a malware aktiválási ideje, hiszen eddig ezt valahogy időzíteni kellett vagy egy IP-címhez kötni míg a DeepLockerrel biometrikus adatok alapján aktiválódik a kártevő.
Kínai és amerikai kutatók is fejlesztettek már olyan szoftvert, ami a CAPTCHA védelmi rendszert képes feltörni. A tesztek szerint a torzított szövegeket 94%-os pontossággal képes az AI felismerni, tehát így a legtöbb webes felület botok elleni védelme veszélybe került. Ez könnyen adhat felületet DDoS támadásoknak így túlterhelve és megbénítva mind magán mind pedig állami weboldalakat és informatikai rendszereket.
Ami pedig a nemzetbiztonsági kérdéseket illeti, több példa is van rá, hogy AI-t használtak fel többek között iráni és kínai hackerek is. A kínaiak fő célja a politikai ellenzék monitorozása és szétzilálása a cél, erre tökéletes platformot nyújtottak a közösségi média oldalak. Másik eszközük pedig, egy rejtőzködő és a saját kódja átíró malware volt, amivel az áldozatok eszközein tárolt adatokat tudták ellopni. Ezenkívül bizonyíték van arra, hogy egy iráni hackercsoport pszichológiai hadviselésre és dezinformációra használta az AI-t. A 2024-es olimpiai játékok idején elárasztotta a nemzetközi médiát az Izrael és a Hamas között dúló katonai konfliktusról szóló hírekkel. Ezeket a híreket AI generálta, de annyira kifinomult a nyelvi modellje, hogy szinte nem lehet megkülönböztetni a valódi hírektől. Mindezek mellett természetesen ezeket az mesterséges intelligenciákat az irániak phishingre is használják, hiszen főként ezekből a csalásokból finanszírozzák a csoport költségeit.
Igazából ahhoz, hogy megfelelően tudjunk védekezni az AI ellen, nekünk is AI-t kell alkalmazni. Hiszen például a Deepfake szoftverrel létrehozott hang vagy képanyagot manapság az AI fejlettsége miatt nagyon nehéz megkülönböztetni a valóstól, kivéve, ha használunk kifejezetten erre fejlesztett AI-t. De ha az AI csak a felhasználói szokásokat figyeli úgy is közel 90% pontossággal ki tudja szűrni a fenyegetéseket és a rendellenes műveleteket. Egy másik elterjedt és hatékony módszer a sandboxing, ennek a lényege, hogy az eszköz egy virtuális környezetben lefuttatja a programot és figyeli, hogy az tesz e bármilyen kirívó tevékenységet például titkosítást. Ezzel is nagy részét ki lehet szűrni nem csupán az AI fenyegetéseknek, de a hagyományos kártevőknek is. A valós idejű blokkolás is egy mára már elterjedt és AI segítsége nélkül elképzelhetetlen lenne, a lényege, hogy a rendszer figyeli például a fertőzött IP címeket és azonnal letiltja azokat amint észlel egyet. Ezzel a rendszerrel a Microsoft Defender a reakció idejét 2-6 óráról 30 másodpercre csökkentette. Vannak olyan AI-ok, amik önjavító rendszerrel vannak megírva, tehát ha az AI úgy véli talált egy olyan hibát a kódjában, amit ki tud használni egy kártevő akkor úgy módosítja azt, hogy a későbbiekben ne legyen lehetőség a hiba kihasználására. Egy másik módszer az AI felhasználására a kiberbiztonságban az a különböző tréningeken lenne. Itt a cégek dolgozói vagy akár magánembereke is megismerkedhetnének az AI által küldött phishing üzenetekkel és hogy különböztessék meg azokat a többi üzenettől.
A jövőben ezeknek az önjavító és öntanuló rendszereknek a működése valószínűen még kifinomultabb lesz. Csak gondoljunk bele, hogy ha ma egy DDoS támadás észlelése után 10 másodperccel tudja izolálni a fertőzött csomópontokat egy ilyen önjavító rendszer akkor mire lesz képes egy ilyen rendszer 2 vagy 3 év múlva. Ezenkívül a prediktív védelem nagyobb szerepet fog kapni, a legvalószínűbb az lesz, hogy az AI az internet és a dark web böngészésével és figyelésével előre tud jelezni egy esetleges kibertámadást. Az okosotthonok terén is lesz változás, hiszen egy AI felügyelni tudja, hogy minden eszköz működik e rendesen, vagy ha éppen nem melyikkel mi a probléma. Így ki lehet kerülni azt a biztonsági kiskaput, hogy ezeket az okoseszközöket lehallgatásra, vagy információ szerzésre használják fel illetéktelenek. Ezen a gondolaton elindulva az AI-t a kritikus infrastruktúrában is lehet alkalmazni, hogy ha esetleg megszűnne egy alrendszernek az összeköttetése a fő informatikai rendszerrel az AI tovább tudná működtetni biztonságosan azt az alrendszert külső beavatkozás nélkül. Ezzel decentralizálná például az energia vagy vízellátást így csökkentve annak a kockázatát, hogy az ország ellen intézett kibertámadás teljesen meg tudja bénítani azt és elvágja a polgárokat a kritikus infrastruktúrától. Az informatikai rendszerek védelmét segítheti az is, hogy AI által szimulált mesterséges támadásokkal tesztelik a rendszerek biztonságát és ez kombinálva egy önjavító programmal elméletben ki tudná küszöbölni a támadások több mint 90%-át. Napjainkban is használnak ilyeneket, de ennek a kettőnek a kombinációja meghatározó lesz a következő években a kibervédelem terén.
Azonban nem csak pozitív oldala van az AI vállalati felhasználásának, például 2024-ben egy német vállalat biztonsági rendszerében működő AI megfigyelte az alkalmazottak magánüzeneteit és így próbálta meggátolni a vállalat elleni támadásokat. Ez pedig azt támasztja alá, hogy az AI nem ismeri az erkölcsöket és az etikát, ez pedig komoly gondot okozhat a jövőre nézve hiszen egy nem keretek közé szorított mesterséges intelligencia ilyen helyzetben csak a feladattal foglalkozik és elképzelhető, hogy nem a humánus megoldást választja. Az AI betanítása is fontos feladat hiszen, ha ez nem megfelelően történik akkor komoly gazdasági következményei is lehetnek, például, ha banki vagy pénzügyi rendszereket felügyelő AI-ról van szó, amit csak Európai adatokkal tanítottak be, akkor használat közben ez egy afrikai vagy ázsiai országban problémákat okozhat. Az AI számára úgy fog tűnni mintha mindenki hamis vagy kirívó bankkártya adatokat adna meg és így egy adathalászatra gondol vagy csalásra. Ezenkívül nagyon sok országban az AI használatára semmi féle törvényi előírás nem vonatkozik, ez a jövőben problémákat okozhat és tömeges visszaéléseket eredményezhet. Feltételezem az elkövetkező pár évben minden ország felkészül erre és törvényileg is rendelkezik a mesterséges intelligenciával kapcsolatban, de addig ez egy kiaknázatlan terület a bűnözők számára.
Tehát a mesterséges intelligencia mind a támadó és mind a védekező oldalon nagyon fontos eszköz és nem csupán a nagy informatikai rendszerekben hasznos, hanem a mindennapi életben is. Az embereknek tudniuk kell hogyan reagáljanak például egy AI által küldött adathalász üzenetre vagy tisztában kell lenniük, hogy mennyire fontos, hogy tisztában legyenek vele milyen élethű hang vagy kép készíthető deepfake segítségével és hogy ezt zsarolásra vagy csalásra lehet felhasználni.
Szerző: Huszár Róbert