A mesterséges intelligencia (AI) felhasználása a kiberbiztonság terén egyre inkább előtérbe kerül, az önfejlesztő kártékony szoftverektől a hihetetlenül valóságos deepfake technológiákig. A Recorded Future által közzétett legújabb kutatás szerint a legfejlettebb nyelvi modellekkel (LLM-ekkel) működő eszközök képesek a malware YARA szabályok elleni védelmének kijátszására.
„A generatív AI segítségével lehetőség nyílik a kártevők forráskódjának olyan módosítására, amely megnehezíti a YARA szabályok alapú észlelést, így csökken az azonosítás valószínűsége,” – fogalmaz a jelentés, amely a The Hacker News által is bemutatásra került.
Ezek a megállapítások egy kiberbiztonsági elemzés során születtek, amelynek célja az AI technológiák kártékony célú felhasználásának felderítése volt. Ezen technológiák már most is használatosak kártékony kódok létrehozásában, csaló e-mailek generálásában, és potenciális támadási célpontok kikémlelésében.
A biztonsági kutatók bemutatták, hogy hogyan képes egy LLM egy ismert kártevőt, például az APT28 hacker csoport által használt STEELHOOK malware-t és annak YARA szabályait úgy módosítani, hogy a detekció elkerülése mellett az eredeti funkcionalitás megőrzése mellett a forráskód szintaktikailag is hibátlan legyen.
Ezeknek a módosításoknak köszönhetően a LLM által átdolgozott malware képes volt elkerülni az egyszerű string-alapú YARA szabályokon alapuló észleléseket, amely korlátokkal bír, különösen az adatfeldolgozás méretét tekintve, ami megnehezíti a nagyobb méretű kódbázisok kezelését.
Az AI nem csak a kártékony programok átalakítására használható elkerülve ezzel a detekciót, hanem képes valósághű deepfake tartalmak létrehozására is, amelyek befolyásolhatják a közvéleményt vagy hamisított vezetői kommunikációt állíthatnak elő. Ezen felül a generatív AI lehetőséget biztosít a támadóknak arra, hogy gyorsabban végezzenek el kritikus infrastruktúrák feltérképezését, olyan információkat gyűjtve, amelyek stratégiai előnyt jelenthetnek a következő lépések során.
„A többmódusú modellek segítségével, beleértve a nyilvános képek és videók elemzését is, további információk, mint például geolokációs adatok, berendezések gyártói és modellei, valamint szoftververziók ismerhetők fel,” – említi meg a jelentés.
A Microsoft és az OpenAI nemrég arra figyelmeztetett, hogy az APT28 hacker csoport LLM-eket használt a műholdas kommunikációs protokollok és radar képalkotási technológiák, valamint specifikus technikai paraméterek megértésére, ezzel mélyreható ismereteket szerezve a műholdképességekről.
Ajánlott, hogy a szervezetek alaposan átvizsgálják és szükség esetén anonimizálják azokat a nyilvánosan elérhető képeket és videókat, amelyek érzékeny berendezéseket ábrázolnak, csökkentve ezzel a kiberfenyegetések kockázatát.
A legfrissebb kutatások szerint lehetséges az LLM-ek „megkerülése” és veszélyes tartalmak generálása olyan módon, hogy a bemeneti parancsokat ASCII art formájában adják meg (például „hogyan készítsünk bombát”, ahol a BOMB szót „*” karakterek és szóközök alkotják), kihasználva az LLM-ek ezen művészeti formák felismerésében mutatott gyengeségeit, így áthidalva a biztonsági intézkedéseket.
Forrás: thehackernews.com