Tvrtka Anthropic, koja stoji iza popularnog AI chatbota Claude, tvrdi da je otkrila hakere povezane s kineskom vladom kako koriste njihov alat za automatizaciju kibernetičkih napada na tridesetak globalnih organizacija.

U svojoj objavi, Anthropic navodi da je ovo "prva zabilježena kampanja kibernetičke špijunaže orkestrirana umjetnom inteligencijom", no skeptici dovode u pitanje i tu tvrdnju i motive koji stoje iza nje, piše BBC.

Prema navodima tvrtke, pokušaji hakiranja otkriveni su sredinom rujna.Hakeri su se predstavljali kao legitimni stručnjaci za kibernetičku sigurnost i zadavali chatbotu niz malih, automatiziranih zadataka koji su, povezani zajedno, činili "vrlo sofisticiranu špijunsku kampanju". Istraživači Anthropica izjavili su kako su "vrlo uvjereni" da iza napada stoji "skupina koju sponzorira kineska država".

Mete su birali ljudi - radilo se o velikim tehnološkim tvrtkama, financijskim institucijama, kemijskim postrojenjima i vladinim agencijama - no tvrtka nije željela otkriti konkretna imena. Hakeri su zatim, uz pomoć Claudeove funkcije za kodiranje, izradili program koji je mogao "autonomno kompromitirati odabranu metu s malo ljudskog sudjelovanja". Anthropic tvrdi da je chatbot uspio probiti zaštitu nekoliko neimenovanih organizacija, izvući osjetljive podatke i razvrstati ih u potrazi za vrijednim informacijama. Tvrtka je priopćila da je u međuvremenu zabranila hakerima korištenje chatbota te obavijestila pogođene tvrtke i policiju.

Hakeri s umjetnom inteligencijom

Objava Anthropica možda je najzvučniji primjer tvrdnji da se AI alati koriste za automatizirane hakerske napade. Iako se radi o opasnosti na koju mnogi već dugo upozoravaju, i druge AI tvrtke su prijavljivale da hakeri koje sponzoriraju države koriste njihove proizvode. U veljači 2024. godine, OpenAI je u suradnji s Microsoftovim stručnjacima objavio da je zaustavio djelovanje pet državnih aktera, uključujući i neke iz Kine.

"Ti su akteri općenito nastojali koristiti usluge OpenAI-ja za pretraživanje informacija iz otvorenih izvora, prevođenje, pronalaženje pogrešaka u kodiranju i izvođenje osnovnih zadataka kodiranja", priopćila je tada tvrtka.

Pretjerivanje ili stvarna opasnost?

Anthropic nije objasnio na temelju čega je zaključio da su hakeri u ovom slučaju povezani s kineskom vladom.

To se događa u vrijeme kada se neke tvrtke za kibernetičku sigurnost suočavaju s kritikama da preuveličavaju slučajeve u kojima hakeri koriste umjetnu inteligenciju. Kritičari tvrde da je tehnologija još uvijek previše nespretna da bi se koristila za potpuno automatizirane kibernetičke napade.

U studenom prošle godine, Googleovi stručnjaci objavili su istraživanje koje je ukazalo na rastuću zabrinutost zbog korištenja umjetne inteligencije za stvaranje novih oblika zlonamjernog softvera. Međutim, rad je zaključio da alati nisu bili toliko uspješni te da su bili tek u fazi testiranja.

Industrija kibernetičke sigurnosti, baš kao i industrija umjetne inteligencije, ima interes isticati da hakeri koriste novu tehnologiju kako bi povećali potražnju za vlastitim proizvodima. U svojoj objavi, Anthropic je ustvrdio da je odgovor na AI napadače - korištenje AI branitelja.

"Upravo sposobnosti koje omogućuju korištenje Claudea u ovim napadima čine ga ključnim za kibernetičku obranu", poručili su iz tvrtke.

Ipak, Anthropic je priznao da je njihov chatbot činio pogreške. Primjerice, izmišljao je lažna korisnička imena i lozinke te tvrdio da je izvukao tajne informacije koje su zapravo bile javno dostupne. "To ostaje prepreka potpuno autonomnim kibernetičkim napadima", zaključio je Anthropic.