Robotikadb#2447

HEAPGrasp: Robotika koja vidi kroz staklo i sjaj

(2d ago)
Tokyo, Japan
techxplore.com
HEAPGrasp: Robotika koja vidi kroz staklo i sjaj

HEAPGrasp: Robotika koja vidi kroz staklo i sjaj📷 © Tech&Space

  • Prva metoda za hvatanje prozirnih i reflektivnih objekata
  • Istraživači s Tokijskog sveučilišta znanosti objavili studiju
  • Demo ne jamči deployment u mokrim skladištima

Roboti koji hvataju automobile dijelove ili tanjure s restoranske trake već godinama postoje, ali sve dok je objekt bio proziran ili reflektivan, automatizacija je nailazila na zid. HEAPGrasp, metoda koju su razvili Shogo Arai i Ginga Kennis s Tokijskog sveučilišta znanosti, rješava taj problem kombinacijom višestrukih RGB snimki i rekonstrukcije 3D oblika iz silueta.

Umjesto da se oslanja na dubinske senzore koji se zbunjuju na staklu ili sjajnom metalu, sustav koristi semantičku segmentaciju (DeepLabv3+ s ResNet-50) da izvuče obrise objekta iz više kutova. Rezultat je 3D rekonstrukcija koja ne ovisi o optičkim svojstvima materijala.

To znači da robot može pouzdano uhvatiti staklenu čašu, metalni dio ili prozirnu plastičnu ladicu bez ljudske intervencije. Istraživači ističu da je ključni napredak upravo u eliminaciji „slijepih točaka“ koje su do sada zaustavljale automatizaciju u proizvodnji, logistici i prehrambenoj industriji.

No, kao i kod svih robotskih inovacija, demo u kontroliranim uvjetima nije isto što i deployment u stvarnom svijetu. HEAPGrasp je trenutno dokazan na ograničenom skupu objekata u laboratorijskim uvjetima, a pitanje je kako će se nositi s nepredvidivim rasporedom, prljavštinom ili promjenjivim svjetlosnim uvjetima u stvarnim skladištima ili restoranima.

Od laboratorija do trake: koliko je daleko pravo rješenje?

Od laboratorija do trake: koliko je daleko pravo rješenje?📷 © Tech&Space

Od laboratorija do trake: koliko je daleko pravo rješenje?

Part 2: Pravi test za HEAPGrasp nije hoće li uhvatiti staklenu čašu na pozornici, već hoće li preživjeti smjenu u skladištu gdje se paketi gomilaju, svjetlo treperi, a objekti dolaze u svim oblicima i veličinama. Trenutni prototip ovisi o višestrukim kamerama i računalnoj snazi za obradu silueta u realnom vremenu, što postavlja pitanje energetske učinkovitosti i troškova skaliranja.

Iako je studija objavljena u uglednom časopisu IEEE Robotics and Automation Letters i predstavljena na ICRA 2026, još nema podataka o stvarnim industrijskim pilotima. Tvrtke koje se bave automatizacijom, poput KUKA-e ili Fanuc-a, obično testiraju nove metode mjesecima prije nego što ih integriraju u komercijalne sustave.

HEAPGrasp bi mogao biti korak naprijed, ali samo ako se dokaže da je robusniji od postojećih rješenja koja se oslanjaju na laserske senzore ili dodatne oznake na objektima. Za sada, HEAPGrasp ostaje obećavajući istraživački projekt.

Njegova prava vrijednost neće biti u tome što može, već u tome što će preživjeti izvan laboratorija. Jer u robotici, demo je uvijek lakši dio.

Konačni cilj je stvoriti sustav koji će moći raditi u različitim uvjetima bez ljudske intervencije. To će zahtijevati daljnja istraživanja i testiranja. HEAPGrasp je samo početak tog puta. Njegova budućnost ovisi o tome kako će se nositi u stvarnom svijetu.

HEAPGraspglass-penetrating roboticsindustrial automation vision systemsembodied AI for manufacturingrobotics deployment challenges

//Comments

RoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIDisney’s $1B AI bet collapses before the first frameMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskAIMistral’s tiny speech model fits on a watch—so what?MedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realityAIPorn’s AI Clones Aren’t Immortal—Just Better PackagedMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveAIGitHub’s Copilot data grab: opt-out or be trainedMedicineRNA Sequencing UnifiesAIAI’s dirty little secret: secure by default is a mythSpaceEarth Formed From Inner Solar SystemAI$70M for AI code verification—because shipping works, not just generating itSpaceYouTube’s AI cloning tool exposes a deeper problemAIAI traffic now outpaces humans—but who’s really winning?SpaceSmile Mission to X-Ray Earth’s Magnetic ShieldAIGemini Live’s voice downgrade: AI progress or collateral damage?SpaceGamma Cas’s X-Ray Mystery Solved After 40 YearsGamingNvidia’s AI art war: Why players are sharpening the pitchforksSpaceUK’s AI probe into Microsoft isn’t just about Windows—it’s about controlTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spotRoboticsBaidu robotaxis grounded: China’s traffic chaos exposes real-world limitsAIDisney’s $1B AI bet collapses before the first frameMedicineInflammation’s Epigenetic Scars May Linger, Raising Colon Cancer RiskAIMistral’s tiny speech model fits on a watch—so what?MedicineBrain aging’s genetic map: AI hype vs. Alzheimer’s realityAIPorn’s AI Clones Aren’t Immortal—Just Better PackagedMedicine$100M federal bet on joint regeneration—what the trials can (and can’t) proveAIGitHub’s Copilot data grab: opt-out or be trainedMedicineRNA Sequencing UnifiesAIAI’s dirty little secret: secure by default is a mythSpaceEarth Formed From Inner Solar SystemAI$70M for AI code verification—because shipping works, not just generating itSpaceYouTube’s AI cloning tool exposes a deeper problemAIAI traffic now outpaces humans—but who’s really winning?SpaceSmile Mission to X-Ray Earth’s Magnetic ShieldAIGemini Live’s voice downgrade: AI progress or collateral damage?SpaceGamma Cas’s X-Ray Mystery Solved After 40 YearsGamingNvidia’s AI art war: Why players are sharpening the pitchforksSpaceUK’s AI probe into Microsoft isn’t just about Windows—it’s about controlTechnologyLeaked iPhone hacking tool exposes Apple’s zero-click blind spot
⊞ Foto Review