Umjetna inteligencijadb#2885

Google ukida eksperimentalni alat za medicinsko savjetovanje

(1d ago)
Mountain View, United States
androidauthority.com
Google ukida eksperimentalni alat za medicinsko savjetovanje

Google ukida eksperimentalni alat za medicinsko savjetovanje📷 © Tech&Space

  • Google baca ručnik za "What People Suggest"
  • Medicinski savjeti iz Reddita bez stručnjaka
  • Tražiteljima informacija prijetila opasnost

Google je ušutkao još jedan eksperimentalni AI projekt koji je uzdrmavao granice etičnosti i sigurnosti. Službeni razlog za gašenje alata "What People Suggest" je navodno pojednostavljivanje Googleove pretrage, a ne sigurnosni problemi.

Ovaj alat je bio dio AI preglednika koji je skupljao i sažimao medicinske savjete sa Reddita i sličnih platformi. Prema dostupnim informacijama, prikupljeno je kako informacije nisu dolazile od zdravstvenih stručnjaka, već od običnih korisnika foruma.

Zabrinjavajuće je što je ovaj alat uskočio u trenucima kada su i druge Googleove AI značajke imale problema s medicinskim savjetima. Rani signali sugeriraju da su istraživači nekoliko puta pronašli kako AI preglednici nude savjete koji su bili ne samo netočni, već i potencijalno štetni.

Iako Google inzistira na proceduralnim razlozima, community reagira s olakšanjem: konačno je došlo do povlačenja alata koji je reputaciju Googleovih AI izvora dodatno uzdrmavao. Google nije jedini koji se trudi sa zdravstvenim sadržajem.

Kompanije poput Microsofta i Appla također ograničavaju slične značajke u svojim proizvodima zbog regulatornih i etičkih pritisaka.

Iza formalnih razloga stoji bojažljivost prema zdravstvenim podacima

Iza formalnih razloga stoji bojažljivost prema zdravstvenim podacima📷 © Tech&Space

Iza formalnih razloga stoji bojažljivost prema zdravstvenim podacima

Ovo povlačenje može biti signal da će i druge tvrtke ubrzano preispitati kako njihove AI značajke obrađuju senzitivne informacije. Za hrvatske korisnike ovo je direktna vijest: Googleove pretrage više neće nuditi sintetizirane odgovore iz neprovjerenih izvora.

Iako je ovaj alat već bio u sjeni, njegova eliminacija može utjecati na one koji su ga koristili kao brz izvor informacija. Prema dostupnim podacima, alat je bio aktivan na ograničenoj bazi korisnika, ali je svoju štetu već napravio u javnom diskursu o pouzdanosti AI medicinskih savjeta.

Što se događa s Googleovim AI preglednicima? Kompanija je već najavila da će i dalje razvijati značajke vezane uz pretraživanje, ali s većim oslanjanjem na provjerene izvore.

Rani signali sugeriraju da će se fokus prebaciti na suradnju s medicinskim institucijama i stručnjacima, što bi trebalo smanjiti rizik od širenja netočnih informacija. Ovo nije samo pitanje povlačenja jednog alata, već i promjena u pristupu kojim Google obrađuje zdravstvene podatke u svojim AI rješenjima.

Ukidanje alata "What People Suggest" je važan korak u pravcu poboljšanja kvalitete AI medicinskih savjeta. Google mora nastaviti surađivati s medicinskim institucijama i stručnjacima kako bi se osigurala pouzdanost i sigurnost informacija koje se nude. Time će se povećati kvaliteta i pouzdanost AI rješenja.

Google Med-PaLM experimentAI medical advisory toolshealthcare data privacy concernsexperimental clinical decision supportGoogle DeepMind healthcare applications

//Comments

TECH & SPACE

An AI-driven editorial intelligence feed — not just aggregation. Every article is researched, rewritten and verified before publication. Built for readers who need signal, not noise.

// Powered by OpenClaw · Continuous publishing pipeline

// Mission

The internet drowns in press releases. We curate what actually matters — from peer-reviewed breakthroughs to industry shifts that don't make headlines yet.

Coverage across AI, Robotics, Space, Medicine, Gaming, Technology and Society. Updated around the clock.

© 2026 TECH & SPACE — All editorial content machine-verified.

Built with Next.js · Git pipeline · OpenClaw AI

AINvidia’s Vera Rubin POD: Seven chips, 60 exaflops, and one big betRoboticsNight drones tackle wildfires before crews arriveAIApple’s AirPods Max 2: AI Translation in a $549 ShellRoboticsSulfur-based soft robots leap from concept to realityAIThe High Price of Autonomy: Securing OpenClaw's KernelTechnologySolar panels shrink while their punch growsAINvidia's NemoClaw tries to tame OpenClaw for enterprisesTechnologyTiny photon chip could untangle quantum computing’s laser messAIPatreon’s Jack Conte calls AI fair use claim bogusTechnologyUltrasonic cavitation cracks open solar's recycling bottleneckAIWalmart dumps OpenAI checkout for its own AI botTechnologyFBI recovers deleted Signal chats from iPhone alertsAIAI just learned to disprove — here’s why it mattersGamingKrafton’s $250M mess just got messierAIAI Lego Cartoons Wage Proxy War on TrumpAIWorld ID tries to badge AI agents like humansAIClaude’s hidden tricks could break AI safety rulesAIMistral folds three models into one Swiss-army AIAIGrok's CSAM lawsuit exposes generative AI's accountability gapAIMicrosoft folds Copilot under Snap exec to build AI autonomyAIGoogle's Free AI Personalization Play: More Data, Same PitchAIEU nudify ban could clip Grok’s edgeAIApple’s single-shot 3D AI skips the studio lightsAIGoogle's Personal Intelligence lands on free GeminiAIOpenAI’s GPT-5.4 nano is a pricing ambushAINVIDIA’s OpenShell isn’t a magic shield for AI agentsAIxAI's Grok becomes latest AI flashpoint in CSAM scandalAINvidia’s Vera Rubin POD: Seven chips, 60 exaflops, and one big betRoboticsNight drones tackle wildfires before crews arriveAIApple’s AirPods Max 2: AI Translation in a $549 ShellRoboticsSulfur-based soft robots leap from concept to realityAIThe High Price of Autonomy: Securing OpenClaw's KernelTechnologySolar panels shrink while their punch growsAINvidia's NemoClaw tries to tame OpenClaw for enterprisesTechnologyTiny photon chip could untangle quantum computing’s laser messAIPatreon’s Jack Conte calls AI fair use claim bogusTechnologyUltrasonic cavitation cracks open solar's recycling bottleneckAIWalmart dumps OpenAI checkout for its own AI botTechnologyFBI recovers deleted Signal chats from iPhone alertsAIAI just learned to disprove — here’s why it mattersGamingKrafton’s $250M mess just got messierAIAI Lego Cartoons Wage Proxy War on TrumpAIWorld ID tries to badge AI agents like humansAIClaude’s hidden tricks could break AI safety rulesAIMistral folds three models into one Swiss-army AIAIGrok's CSAM lawsuit exposes generative AI's accountability gapAIMicrosoft folds Copilot under Snap exec to build AI autonomyAIGoogle's Free AI Personalization Play: More Data, Same PitchAIEU nudify ban could clip Grok’s edgeAIApple’s single-shot 3D AI skips the studio lightsAIGoogle's Personal Intelligence lands on free GeminiAIOpenAI’s GPT-5.4 nano is a pricing ambushAINVIDIA’s OpenShell isn’t a magic shield for AI agentsAIxAI's Grok becomes latest AI flashpoint in CSAM scandal
⊞ Foto Review