W dniach 19–25 października Hangzhou – gospodarczo potężna metropolia we wschodnich Chinach – stała się centrum światowej robotyki. Ponad 5 000 naukowców i liderów branży spotkało się na konferencji IROS 2025 – International Conference on Intelligent Robots and Systems, udowadniając, że nasze wyobrażenia o robotach-współpracownikach to zawsze tylko migawka w czasie.
„Staging the Machine: Not Built for Work, Built for Wonder” („Maszyna w roli głównej: nie stworzona do pracy, lecz do zachwytu”) – taki tytuł nosiło wystąpienie inaugurujące konferencję, wygłoszone przez Dennisa Honga, profesora Uniwersytetu Kalifornijskiego. Jak wiele innych prezentacji, również ta pokazała, że w przyszłości będziemy jeszcze wielokrotnie zaskakiwani.
Jednym z najważniejszych punktów programu w Hangzhou była kamera Robot Manipulation Eye (AC2) firmy RoboSense – urządzenie, którego trudno już nazwać czujnikiem, bo pełni raczej funkcję „szóstego zmysłu”. Dzięki technologii direct time-of-flight ma ona dostarczać obrazy głębi z dokładnością do milimetra – nawet przy silnym oświetleniu i w ruchu. Twórcy „oka manipulacyjnego” przekonują, że umożliwia ono „postrzeganie jak u istoty żywej”– i nie jest to wyłącznie marketingowy slogan. W przyszłości kamera RoboSense pozwoli ramionom chwytającym, pojazdom autonomicznym czy robotom usługowym nie tylko widzieć otoczenie, lecz także naprawdę je rozumieć.
Sztuczna inteligencja o zmyśle dotyku
Temat „rozumienia” był obecny w licznych warsztatach podczas IROS 2025. Roboty nie uczą się już jedynie pojedynczych ruchów, lecz całych koncepcji – dzięki systemom uczenia multimodalnego i metodom „human-in-the-loop”, łącząc sygnały wzrokowe, językowe i dotykowe, aby wykonywać zadania zarówno w przemyśle, jak i w codziennym życiu.
Otwieranie upartego opakowania z lekarstwem czy sortowanie owoców według stopnia dojrzałości przestaje więc być wyłącznie ludzką umiejętnością. A potencjał kryjący się w tym – pozornie mało spektakularnym – odkryciu był jednym z głównych tematów konferencji.
Roboty bez „łokciowej” mentalności
Jednym z fascynujących kierunków rozwoju zaprezentowanych na IROS 2025 była nawigacja społeczna. Zespół firmy Xiaomi pokazał, że robot usługowy, który w ciasnej przestrzeni po prostu omija ludzi dla bezpieczeństwa, wydaje się znacznie mniej empatyczny – a nawet mniej uprzejmy – niż model, który próbuje zrozumieć intencje człowieka.
W praktyce oznacza to, że robot na chwilę się zatrzymuje i robi niewielki objazd, zachowując dystans, ale nie sprawiając wrażenia obojętności. System opiera się na czujnikach RGB-D i module do proaktywnej oceny ryzyka, jak określają to jego twórcy.
Przyszłość interakcji z robotami może więc oznaczać nie tylko większą efektywność, lecz także empatię – lub przynajmniej jej wiarygodną symulację.
Coraz bliżej praktyki
Stałym i wyraźnym trendem IROS 2025 było przenoszenie robotów ze sterylnych laboratoriów testowych do realnego świata. Roboty coraz częściej wykonują zadania powierzone im przez ludzi w rolnictwie, logistyce, ratownictwie oraz, co szczególnie istotne, w medycynie – a zaufanie do ich kompetencji systematycznie rośnie.
Szczególne wrażenie robią tzw. roboty ciągłe (continuum robots), których ciała składają się nie ze sztywnych przegubów, lecz z elastycznych, giętkich struktur, umożliwiających im niezwykle precyzyjne działania chirurgiczne.
Roboty o zdolnościach samonaprawczych
Ponieważ takie „miękkie” roboty inspirowane naturą świetnie sprawdzają się w salach operacyjnych, ale jednocześnie są bardziej podatne na uszkodzenia, Bram Vanderborght z Vrije Universiteit Brussel zaprezentował na IROS 2025 roboty o zdolnościach samoregeneracji.
„Nasze postępy technologiczne pozwalają tym robotom naprawiać się samodzielnie, co zwiększa ich trwałość i znacząco wydłuża żywotność. To innowacja, która nie tylko podnosi możliwość ponownego wykorzystania, ale także sprzyja procesom recyklingu, opierając się na materiałach pochodzenia biologicznego – to ważny krok w stronę zrównoważonego rozwoju” – podkreślił Vanderborght w swoim wystąpieniu.
„Nasze przełomowe rozwiązania obejmują samonaprawiające się ramiona chwytające z wbudowanymi czujnikami, które potrafią nie tylko wykryć uszkodzenie, ale również aktywnie na nie reagować. Obecnie rozwijamy tę technologię, aby stworzyć spin-off Valence Technologies, który ma wprowadzić na rynek samouszczelniające się przyssawki oraz samonaprawiające opony rowerowe i samochodowe” – dodał badacz.
Od rozumienia semantycznego do bezpiecznej autonomii
Niemiecka informatyczka i wykładowczyni akademicka Angela P. Schoellig, profesor robotyki i sztucznej inteligencji im. Aleksandra von Humboldta na Technische Universität München, w swoim wystąpieniu w Hangzhou stwierdziła, że modele bazowe i uczenie na dużą skalę zasadniczo zmieniają robotykę.
Dziś roboty można programować za pomocą języka naturalnego, wrażeń wzrokowych i demonstracji, zamiast mozolnego pisania kodu linijka po linijce. Jednak – jak zauważyła Schoellig – nowy paradygmat rodzi kluczowe pytanie: jak zapewnić bezpieczeństwo w otwartych, dynamicznych środowiskach? Aby na nie odpowiedzieć, badaczka przedstawiła prace łączące rozumienie semantyczne i generatywne strategie sterowania z ramami kontroli krytycznej dla bezpieczeństwa. Wśród przykładów znalazły się:
- bezpieczna nawigacja w tłumie z wykorzystaniem modeli dyfuzyjnych i predykcji ruchu ludzi – podobnie jak w robotach usługowych Xiaomi,
- semantyczne filtrowanie bezpieczeństwa dla zadań manipulacyjnych,
- sterowanie rojami robotów poprzez instrukcje w języku naturalnym z wbudowanymi mechanizmami ochrony.
„Wyniki te pokazują zarówno nowe możliwości, jak i wyzwania związane z wykorzystaniem sztucznej inteligencji w skali internetu w robotyce” – podsumowała Schoellig.
Na zakończenie przedstawiła mapę drogową rozwoju wiarygodnych, skalowalnych i bezpiecznych systemów autonomicznych, które będą funkcjonować w środowiskach zorientowanych na człowieka.

















































