Új kihívások a kiberbiztonságban: AI kihasználása kriptovaluta bányászat céljából
Az Oligo Security kutatói nemrégiben tárta fel egy jelentős kiberbiztonsági fenyegetést, amely az AI számítási kapacitásokat kihasználva érint számos vállalatot. A támadók egy nyílt forráskódú szoftvert, a Ray-t célozták meg, amelyet általában AI modellek skálázására használnak. Ez az első ismert eset, amikor ilyen jellegű kibertámadás történik, amely az AI technológia alapvető sebezhetőségeit használja ki.
A támadások százakat érintettek, beleértve három nagyon ismert, nagy szervezetet is. Az egyik ilyen szervezet gyógyszerkutatással foglalkozik, míg egy másik egy neves amerikai főiskola. Gal Elbaz, az Oligo Security technológiai igazgatója szerint potenciálisan ezrekben mérhető a kompromittált gépek száma. A támadók ezen gépeken kriptovaluta bányászokat telepítettek, amivel nemcsak hogy elterelik az AI képzéséhez szükséges számítási erőforrásokat, de érzékeny adatokhoz is hozzáférhetnek.
A sebezhetőség maga a Ray szoftver API-jából ered, amely úgy van beállítva, hogy nem igényel kulcsot vagy jelszót a hozzáféréshez, így rendkívül sebezhetővé válik az illetéktelen támadásokkal szemben. A rosszindulatú szereplők könnyedén megtalálhatják ezeket a nyílt szervereket és telepíthetnek rájuk kriptovaluta bányászokat vagy egyéb kártékony szoftvereket. Anyscale, a Ray fejlesztését felügyelő cég kezdetben vitatta ezt a sebezhetőséget, állítva, hogy ez a funkció szándékos, mivel a terjesztett munkaterheléseknek szükségük van arra, hogy egyik szerver futtathassa a kódot a másikon.
Az Oligo által történt felfedezés után az Anyscale elkezdett új biztonsági funkciókat bevezetni, amelyek figyelmeztetik a felhasználókat, ha úgy konfigurálták a Ray rendszereiket, hogy azok hozzáférhetők legyenek a nyílt interneten. Azonban a kiberbiztonsági szakemberek szerint alapvető API biztonsági intézkedések sürgősen szükségesek a felhasználók védelme érdekében.
Ez az eset rávilágít az AI infrastruktúra szélesebb körű biztonsági sebezhetőségeire, különösen, mivel az AI modellek jelentős számítási kapacitást igényelnek és gyakran működnek elosztott hálózatokon. Az, hogy a támadók képesek bejutni ezekre a hálózatokra és több gépet is irányításuk alá vonni, jelentős kockázatot jelent az AI műveletek integritására és funkcionalitására nézve.
Összegzésképpen, ahogy egyre mélyebben integráljuk az AI-t különböző szektorokba, az ezzel kapcsolatos kiberbiztonsági kockázatok felismerése és mérséklése válik kiemelten fontossá. Ez az eset emlékeztet minket a szigorú biztonsági protokollok szükségességére és az AI infrastruktúrák szigorú monitorozására, hogy megvédhessük őket a fejlődő kibertámadásokkal szemben.
Forrás: www.forbes.com