Umjetna inteligencijadb#1084

Anthropicov promašaj: izvorni kod Claude-a na ulici

(2w ago)
San Francisco, US
cnet.com
Anthropicov promašaj: izvorni kod Claude-a na ulici

Anthropicov promašaj: izvorni kod Claude-a na ulici📷 © Tech&Space

  • Ljudska greška izlaže internu dokumentaciju Claude Code-a
  • Tvrtka potvrđuje: bez kompromitiranih korisničkih podataka
  • Konkurenti već analiziraju izvorni kod na GitHubu

Anthropic je u srijedu potvrdio da je zbog »ljudske greške« na kratko izložio dio izvornog koda i interne dokumentacije za svoj najnoviji proizvod, Claude Code — alate za razvoj softvera temeljene na njihovom modelu. Tvrtka ističe da nisu kompromitirani korisnički podaci, ali je pitanje koliko je ovaj incident zapravo nespretnost, a koliko neplanirani uvid u njihovu tehnologiju za konkurenciju.

Detalji ukazuju da se radilo o internim repozitorijima koji sadrže kod za integriranje Claude-a s razvojnim okruženjima, a ne o samom jezgrenom modelu. To je ključna razlika: dok bi curenje cijelog modela bilo katastrofa, ovakav incident je više kao ostavljeni ključevi od laboratorija — neugodno, ali ne i egzystencijalno. Ipak, za razliku od uobičajenih leakova koji završavaju na 4chanu, ovaj materijal je brzo preuzeo dio open-source zajednice, gdje se već analizira što Anthropic stvarno radi drugačije od konkurencije.

Zanimljivije od samog incidenta je što je Claude Code od početka prezentiran kao »sigurnija« alternativa GitHub Copilotu, s naglaskom na kontrolirano generiranje koda. Ironično, upravo je kontrola nad vlastitim kodom postala problem. Tvrtka je brzo reagirala, ali pitanje ostaje: ako se ovako nešto dogodi s dokumentacijom, što sprečava sličan scenario s modelom koji zaista vrijedi milijarde?

Između incidenta i strateške prednosti

Između incidenta i strateške prednosti📷 © Tech&Space

Između incidenta i strateške prednosti

Za razliku od prethodnih curenja (npr. Metaov LLaMA 2), ovdje nije riječ o namjernom otvaranju koda radi marketinga ili zajednice. To čini situaciju zanimljivijom: Anthropic nije tvrtka koja se tradicionalno oslanja na open-source strategije, pa je ovaj nesluženi uvid u njihovu arhitekturu možda vrijedniji od bilo koje namjerne objave. Razvojni timovi već komentiraju kako neke segmenti koda otkrivaju neočekivane pristupe optimizaciji za enterprise okruženja — što bi moglo objasniti zašto Claude Code u nekim benchmarkovima nadmašuje konkurenciju, ali i zašto je sporiji u realnom vremenu.

Konkretno, dio koda koji je procurio sadrži detalje o tome kako Anthropic rukuje context windowom od 200K tokena — funkcija koja je ključna za rad s velikim kodnim bazama, ali koja u praksi često uzrokuje latencije. Ako konkurencija (npr. Mistral ili čak Amazon Q) sada može replicirati ove optimizacije, Anthropicov konkurentni prednost se sužava. S druge strane, ovaj incident može biti i blessing in disguise: ako zajednica pronađe ranjivosti u kodu prije nego što ih iskoriste zlonamjernici, Anthropic je možda upravo dobio besplatan security audit.

Najveće pitanje ostaje: zašto je uopće došlo do ovog promašaja? Anthropic je tvrtka koja se hvali »defenzivnim« pristupom AI razvoju, pa je čudno da takva greška prođe kroz njihove procese. Čini se da je problem bio u pogrešnoj konfiguraciji pristupnih prava na internim alatima — što je, ironično, upravo vrsta greške koju Claude Code treba pomagati razvijačima izbjeći.

AnthropicClaudeSource Code Leak

//Comments

MedicineMuscles Turned MotorsSpaceArtemis 2 LaunchesMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskSpaceEarth Formed From Inner Solar SystemMedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realitySpaceYouTube’s AI cloning tool exposes a deeper problemMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveSpaceSmile Mission to X-Ray Earth’s Magnetic ShieldMedicineRNA Sequencing UnifiesAIGemini 3.1 Flash-Lite UnveiledRoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIArm’s first solo chip: hype meets hardware realityGamingNvidia’s AI art war: Why players are sharpening the pitchforksAIDisney’s $1B AI bet collapses before the first frameTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spotAIMistral’s tiny speech model fits on a watch—so what?AIPorn’s AI Clones Aren’t Immortal—Just Better PackagedAIGitHub’s Copilot data grab: opt-out or be trainedAIAI’s dirty little secret: secure by default is a mythAI$70M for AI code verification—because shipping works, not just generating itMedicineMuscles Turned MotorsSpaceArtemis 2 LaunchesMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskSpaceEarth Formed From Inner Solar SystemMedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realitySpaceYouTube’s AI cloning tool exposes a deeper problemMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveSpaceSmile Mission to X-Ray Earth’s Magnetic ShieldMedicineRNA Sequencing UnifiesAIGemini 3.1 Flash-Lite UnveiledRoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIArm’s first solo chip: hype meets hardware realityGamingNvidia’s AI art war: Why players are sharpening the pitchforksAIDisney’s $1B AI bet collapses before the first frameTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spotAIMistral’s tiny speech model fits on a watch—so what?AIPorn’s AI Clones Aren’t Immortal—Just Better PackagedAIGitHub’s Copilot data grab: opt-out or be trainedAIAI’s dirty little secret: secure by default is a mythAI$70M for AI code verification—because shipping works, not just generating it
⊞ Foto Review