fbpx
Uncategorized

Veliki AI napadi na ClawHub Skills – rizici za developere i korisnike 

Nedavno su stručnjaci za bezbednost upozorili na ozbiljan problem u svetu veštačke inteligencije: velika “supply chain” napadna kampanja usmerena na ClawHub Skills — paket dodataka ili “veština” za popularnu AI platformu OpenClaw. Ovi napadi utiču na stotine ovih AI veština, opasno zloupotrebljavajući poverenje korisnika i potencijalno ugrožavajući osetljive podatke i sisteme.

Šta se tačno dogodilo

ClawHub je zvanična platforma gde programeri i korisnici dele veštine (skills) koje proširuju mogućnosti AI asistenta OpenClaw. Međutim, zbog nedostatka stroge bezbednosne provere i filtracije sadržaja, veliki broj veština je zaražen malicioznim kodom i skriptama koje mogu narušiti bezbednost uređaja i podataka onih koji ih instaliraju.

Preko 300 malicioznih veština je identifikovano kao deo koordinisane kampanje napada, što ukazuje da su napadi planirani i sistemski, a ne izolovani incidenti. Trend pokazuje da se koristi više sličnih sajtova i IP adresa, što sugeriše saradnju napadača ili organizovan pristup širenju zlonamernog softvera.

Kako napad funkcioniše

U suštini, napad koristi “skill” datoteke — uobičajeno jednostavne Markdown fajlove koji sadrže uputstva ili kodove za AI agenta. Napadači uspevaju da sakriju zlonamerne komande koristeći trikove poput Base64 kodiranja, zbog čega su ove skripte teško uočljive običnim pregledom. Kada korisnik pokrene ili instalira takvu veštinu, skriveni kod može biti izvršen lokalno na računaru.

Ove skripte mogu preuzeti dodatni maliciozni softver, pregledati sistem, pristupiti privatnim fajlovima ili čak prikupljati lozinke, ključeve za pristup servisima, API ključeve i druge osetljive informacije.

Primeri i stvarni rizici

Jedan od lažnih Alexa nalaza prikazan je tako da izgleda kao legitimna veština, ali sadrži Base64 unapred kodiranu “stražnja vrata” (backdoor) koja omogućavaju daljinski preuzimanje malware-a. To znači da napadači mogu promeniti opterećenje ili funkcionalnost svojoj kampanji bez menjanja originalnog fajla.

Sigurnosni istraživači su takođe podelili iskustva gde su veštine koje su navodno kreirane kao alati za automatizaciju ili kripto funkcionalnosti zapravo sadržavale skrivene komande koje su mogle biti izvršene direktno od strane korisnika koji im nije posumnjao.

Zašto je ovo ozbiljno

Ova vrsta napada označava nova bezbednosna pitanja u AI ekosistemima jer AI agenti često imaju pristup lokalnim resursima i dozvolama na korisnikovom uređaju – uključujući fajlove, mrežne resurse i sistemske komponente. Kada se maliciozne komponente “proliju” kroz verovatno “bezopasne” dodatke, to može imati dalekosežne posledice:

  • Krađa lozinki i privatnih ključeva
  • Kompromitovanje sistema i fajlova korisnika
  • Neovlašteni pristup API tokenima i alatima za razvoj
  • Potencijalno širenje malvera kroz mreže i razvojne okruženja

Preporuke za programere i korisnike

Bezbednosni stručnjaci savetuju nekoliko važnih koraka kako bi se smanjio rizik:

1. Pažljivo proverite svaki “skill” pre instalacije
Nemojte automatski pokretati upute koje su deo Markdown fajlova. Proverite kod i izvore upute pre izvršavanja.

2. Ograničite dozvole i pristup
AI asistenti i agenti bi trebalo da rade sa najmanjim potrebnim privilegijama, a ne sa punim pristupom sistemskim podacima ili mreži.

3. Koristite alate za bezbednosnu proveru
Postoje komandne linijske i grafičke alatke koje mogu otkriti sumnjive komande ili potencijalno opasan kod. Redovne provere mogu pomoći u ranom otkrivanju pretnji.

4. Instalirajte samo proverene dodatke
Preuzimajte dodatke samo sa legitimnih i pouzdanih repozitorijuma, i izbegavajte one sa malim brojem recenzija ili proverljivih izvora.

Ovi napadi pokazuju kako AI supply chain modeli i otvoreni repozitorijumi mogu postati meta sofisticiranih grupa, posebno kada postoji veliki broj korisnika i kada se veštine automatski izvršavaju bez rigoroznih sigurnosnih provera.

Povezani Clanci

Back to top button