
Az OpenAI 2025. június 9-én bejelentette, hogy újabb ChatGPT fiókokat tiltott le, amelyeket orosz, kínai, iráni és észak-koreai hekkercsoportok használtak rosszindulatú célokra. A letiltott fiókokkal végzett tevékenységek közé tartozott a malware-fejlesztés, dezinformáció terjesztése, társadalmi manipuláció, és hamis online profilok létrehozása. A vállalat által közzétett fenyegetés-intelligencia jelentés részletes betekintést nyújt a generatív MI eszközökkel kapcsolatos visszaélésekbe, valamint hangsúlyozza a ChatGPT fiókok tiltásának stratégiai jelentőségét a kiberbiztonsági védelem szempontjából.
Miért kritikus a ChatGPT fiókok tiltása a kiberbiztonságban?
A generatív mesterséges intelligencia – különösen a ChatGPT – alkalmazása új szintre emelte az informatikai biztonsági kihívásokat. A támadók ezeket az eszközöket nemcsak egyszerű szövegírásra vagy kódgenerálásra használják, hanem kifinomultabb célokra is, például sebezhetőségek keresésére, exploitok előkészítésére, szociális manipulációs forgatókönyvek létrehozására, valamint célzott phishing kampányok személyre szabására.
Az OpenAI intézkedései egyre fontosabbá válnak ebben a környezetben. A ChatGPT fiókok rendszeres auditja és visszaélések esetén történő tiltása jelentős akadályt gördít a fenyegető aktorok útjába. Ezzel nemcsak az adott műveletet lehet megszakítani, hanem hosszú távon a támadók képességeinek fejlődését is korlátozni lehet. A MI-rendszerekben rejlő gyorsaság és skálázhatóság ugyanis komoly előnyt jelentene a rosszindulatú felhasználók számára, ha nem történne aktív beavatkozás a szolgáltatók részéről.
ScopeCreep: az orosz fenyegető aktorok esete
A ScopeCreep néven azonosított orosz nyelvű hekkercsoport különösen figyelemre méltó módszereket alkalmazott a ChatGPT kihasználására. A csoport ideiglenes, egyszer használatos e-mail címekkel regisztrált, hogy anonimitását megőrizze, majd ezeken keresztül generált Go nyelvű rosszindulatú kódot. A kódot interaktív módon, iteratívan fejlesztették tovább a ChatGPT-vel folytatott beszélgetések során, miközben finomították a funkciókat és elrejtették a detektálható mintákat.
A támadók különösen ügyeltek a műveleti biztonságra (OPSEC): a beszélgetések lezárása után a fiókokat rövid időn belül törölték, így a visszakövethetőség minimalizálódott. A végtermékként előállított malware-t egy Crosshair X nevű nyílt kódtárra töltötték fel, amely valójában egy credential harvester volt – tehát felhasználói jelszavak, tokenek és más érzékeny adatok megszerzésére alkalmas eszköz.
Kínai APT5 és APT15 csoportok tevékenysége
Két jelentős, Kínához köthető állami támogatású csoport is felhasználta a ChatGPT-t: APT5 és APT15. Az OpenAI jelentése szerint ezek a csoportok többféle céllal használták a szolgáltatást. Egyes alcsoportjaik technikai kérdésekre kértek válaszokat, például Linux parancsokkal, tűzfalbeállításokkal, és DNS-konfigurációval kapcsolatban, mások pedig social engineering kampányok tervezésére és tesztelésére fordították az eszközt.
Az MI-t különösen a brute-force támadásokhoz szükséges scriptek optimalizálására, valamint az exploitok testreszabására használták. Android eszközök manipulációját célzó szkripteket is előállítottak, amelyek segítségével befolyásolni tudtak közösségi médiában zajló diskurzusokat. Ezek a tevékenységek jól illeszkednek a klasszikus APT-stratégiákhoz: hosszú távú jelenlét kialakítása, titkos adatkinyerés és befolyásolási műveletek támogatása.
Egyéb fenyegető klaszterek és módszerek
A jelentés több más, földrajzilag és módszertanilag eltérő fenyegető klasztert is bemutat. Észak-Koreához köthető hálózatok például úgynevezett „IT worker” típusú átveréseket hajtottak végre: hamis szakmai önéletrajzokat és portfóliókat generáltak, amelyekkel álláspályázatokon próbáltak nyugati cégekhez bejutni. A cél nemcsak anyagi előny szerzése, hanem hírszerzési pozíciók kiépítése volt.
A „Sneer Review” klaszter több nyelven – köztük angolul, spanyolul és franciául – geopolitikai témákban generált tömeges tartalmat. A „High Five” klaszter főként kommenteket és rövid posztokat írt angolul és taglish nyelven (a tagalog és angol keveréke), amelyek célja a helyi közvélemény befolyásolása volt. Az „VAGue Focus” kampány pedig elemzői hangvételű cikkeket írt, amelyeket álnéven jegyzett újságírók publikáltak – sok esetben álhíroldalakon vagy manipulatív fórumokon keresztül.
Gyakorlati ajánlások a védekezéshez
A mesterséges intelligencia használatának elterjedésével együtt nő az igény az adaptív, valós idejű védekezési stratégiák iránt. Az informatikai döntéshozóknak az alábbi intézkedéseket ajánlott megfontolniuk:
- Hozzáférés-kezelés szigorítása: minden kritikus rendszerhez való hozzáférés többtényezős hitelesítéshez (MFA) kötése, jogosultságok rendszeres felülvizsgálata.
- Felhasználói viselkedés-elemzés (UEBA): gyanús fióktevékenységek, szokatlan API-kérések és tömeges adatlekérések detektálása valós időben.
- Belső irányelvek és MI-használati szabályok: szervezeti szinten legyen szabályozva a ChatGPT és más generatív MI eszközök használata, különösen fejlesztői és ügyfélkapcsolati területeken.
- Fenyegetés-intelligencia integrálása: külső szolgáltatóktól származó releváns adatok, tiltólisták és viselkedési minták folyamatos beépítése az incidenskezelésbe.
- Képzések és tudatosságnövelés: a munkavállalók rendszeres oktatása az MI-alapú visszaélések felismeréséről, különösen a szociális manipulációs módszerek terén.
Ezek a lépések nemcsak a jelenlegi fenyegetések ellen nyújtanak védelmet, hanem felkészítik a szervezetet a mesterséges intelligencia jövőbeli, egyre kifinomultabb támadási vektoraira is.
Összefoglalás
Az OpenAI friss jelentése világosan mutatja, hogy a generatív mesterséges intelligencia eszközök – mint a ChatGPT – már nem csupán kutatási vagy oktatási célokat szolgálnak, hanem célponttá is váltak a kibertér sötét oldalán. A fiókok letiltása tehát nem egyszerű felhasználói jogmegvonás, hanem aktív kiberbiztonsági védekezés, amely globális szinten csökkentheti a fenyegetések sikerességét. A ScopeCreep, APT5/15 és más globális hekkercsoportok módszerei jól mutatják, mennyire adaptívak és rugalmasak az MI-alapú eszközök kihasználásában. A vállalatoknak tehát elengedhetetlen proaktívan fellépni: ChatGPT fiókok felügyeletével, szabályozott használatával, külső intelligenciaforrások bevonásával és folyamatos oktatással tudják csak hatékonyan védeni digitális infrastruktúrájukat.