Przyszłość wizji maszynowej w robotyce

Inżynierowie Ford Motor Co. i General Motors Co. dyskutowali na Forum Biznesowym A3 2015 na temat postępu technologicznego, jaki potrzebny jest w kolejnej generacji systemów wizyjnych maszyn, aby wspomóc roboty i systemy kontroli ruchu. Wśród analizowanych kwestii znalazły się: szybsza konfiguracja maszyn i powrót do pracy po wystąpieniu awarii, lepsze narzędzia 3D i symulacja offline.
Według inżynierów General Motors Co. oraz Ford Motor Co., którzy 22 stycznia przedstawili na Forum Biznesowym A3 2015 swoje własne propozycje w zakresie rozwoju technologii systemów wizyjnych maszyn dla systemów wizji maszynowej, wykorzystywanych obecnie w szerokim zakresie w motoryzacji, ciągle pojawiają się nowe szanse i wyzwania. Forum Biznesowe A3 odbyło się w dniach 2123 stycznia w Lake Buena Vista na Florydzie w USA. W czasie jego trwania miały miejsce seminaria z udziałem organizacji z grupy A3: Stowarzyszenie Robotyki Przemysłowej (ang. Robotic Industries Association – RIA), Stowarzyszenie Kontroli Ruchu (ang. Motion Control Association – MCA) oraz Stowarzyszenie Rozwoju Wizji i Obrazowania (ang. Advancing Vision and Imaging – AIA). A3 odpowiada angielskiemu Assocation for Advancing Automation, co oznacza Stowarzyszenie Rozwoju Automatyki.
Frank Maslar, specjalista techniczny Ford Motor Co., należący do grupy inżynierów zajmujących się produkcją zaawansowaną w organizacji produkującej układy napędowe, omówił parametry i potrzeby nowoczesnej wizji maszynowej.
Dla procesu montażu w przemyśle motoryzacyjnym charakterystycznymi i istotnymi kwestiami do obsługi w ramach systemów wizyjnych są: zmiany położenia we wszystkich kierunkach mniejsze niż 5 mm, powtarzalne podobne części, zróżnicowane powierzchnie i to, że części pozostają na stanowisku przez 2030 sekund. Linie pracują 24 godz. przez 7 dni w tygodniu. W motoryzacji łatwość powrotu maszyn i całej linii produkcyjnej do pracy, po wystąpieniu awarii, jest bardzo ważna, ponieważ przestoje generują koszty rzędu tysięcy dolarów na minutę. Systemy wizyjne traktuje się jak integralny element standardowych procesów. Jeśli wizja maszynowa zawodzi, linia się zatrzymuje. Każdy z systemów wizyjnych musi pracować według tzw. metody 6 Sigma, dopuszczającej wystąpienie trzech defektów na milion.
Systemy wizyjne i oświetlenie
Stephen Jones, główny inżynier produkcji układów przeniesienia napędu i certyfikowany specjalista w zakresie zaawansowanych systemów wizyjnych, stwierdził, że sztuka i nauka nie są sobie równe. Projektowanie i budowa systemów wizji maszynowej nie powinno być traktowane jako sztuka i wymaga podejścia naukowego. Dla przewidzenia pożądanych rezultatów konieczne są pewne określone zasady.
Jones poprosił słuchaczy seminarium, aby wyobrazili sobie inżyniera mechanika rozmawiającego o charakterystykach użytkowych belek dwuteowych w projekcie konstrukcyjnym z tą samą dozą niepewności, która towarzyszy aktualnie wykorzystywanemu w wizji maszynowej oświetleniu.
Rozwiązania w zastosowaniach wizji maszynowej są powtarzalne, ale nie działają identycznie we wszystkich przypadkach. Podczas przygotowań należy zrozumieć różnicę między projektowymi a rzeczywistymi parametrami komponentów. Jak stwierdził Jones, wyraźnie brakuje analizy zastosowania, co musi być kompensowane przez lepsze narzędzia. Jeśli obserwowana przez system część jest np. wilgotna, wpływa to w znaczny sposób na działanie systemów wizyjnych.
Według Jonesa, jeśli w systemie wizyjnym mamy zamiar użyć listew LED o długości 300 mm (12"), przydatna byłaby dokumentacja opisująca długości fal, natężenie światła, jednorodność oświetlenia w obszarze projekcji czy obniżenie parametrów na standardowych odległościach. W odniesieniu do połowy ostatnio sprawdzanych produktów nie określono mocy oświetlenia. Bez tych danych nie ma sposobu, aby odpowiedzieć rzetelnie na pytanie, czy możliwe jest użycie określonego źródła światła jako zamiennika.
– Jaki wpływ będzie miała zmiana konfiguracji linii i przesunięcie kamery w tył o 8 cali? – zapytał Jones. – Nie mamy pojęcia bez informacji o natężeniu światła.
Systemy wizyjne maszyn a zróżnicowanie powierzchni
W przypadku powierzchni metalowych własności odbiciowe mają bardzo duży wpływ na jakość ich postrzegania i mogą się różnić w szerokim zakresie, w zależności od ścieżki narzędzia i głębokości.
W przypadku obrotu tej samej części o 45°, w zależności od powierzchni, obraz widziany przez kamerę może mieć zarówno bardzo dobrą, jak i bardzo słabą jakość.
– Widząc różnicę, jak możemy znaleźć rozwiązanie? – zapytał Jones.
Pokazując różne obrazy tych samych elementów, ciemny i jasny, ze zwiększonym czasem ekspozycji, Jones zapytał, czy jeśli jakość jest niska na pierwszym zdjęciu, można wykonać drugie? Czy dla całej tacy części możemy połączyć ze sobą rogi różnych obrazów? Opcje te nie są łatwe do skonfigurowania.
Jones zasugerował, że w przypadku kamer inteligentnych, które są wyposażone w procesor, soczewkę i często w oświetlenie suboptymalne, aby stale uzyskiwać najlepszy spośród sześciu obrazów, często niezbędny jest głębszy wgląd w oprogramowanie.
W przypadku kamery inteligentnej trudno jest przystosować się do zmian w przyszłości. Podczas zakupu kamery konieczny może być wybór zestawu funkcji odpowiednich dla aktualnego i przyszłych zastosowań poprzez zgadywanie.
– Po prostu nie jesteśmy w stanie wydedukować, jakie zmiany lub czynniki wystąpią w przyszłości – stwierdził Jones.
Lepsza alokacja zasobów systemów wizji maszynowej
Cykle w przemyśle motoryzacyjnym mają długość odmienną w stosunku do wielu innych gałęzi przemysłu. Im dłuższe czasy trwania cyklu, tym wyposażenie produkcyjne pozostaje dłużej bezczynne. W przyszłości może się pojawić możliwość łączenia w sieć kamer 150 GigE, które sterowane programowalnym sterownikiem logicznym (PLC), byłyby uruchamiane na żądanie. W takim wypadku moc obliczeniowa zostałaby rozłożona na wiele rdzeni procesora, a praca odbywałaby się w jednym środowisku programowym, obsługującym wszystkie narzędzia dostępne przy poszczególnych stanowiskach.
Ulepszenia wizji maszynowej 3D
Frank Maslar spogląda w przyszłość wizualizacji danych 3D. Obecnie dane 3D są wyświetlane w postaci obrazów 2D. Potrzebne są systemy pracujące w przestrzeni 3D, prezentujące dane w postaci modeli bryłowych, które mogą być przybliżane i obracane. Obecnie dla danych wizyjnych 3D możliwości te nie są oferowane. Potrzebne są także nowoczesne narzędzia 3D, obejmujące systemy rozpoznawania nieregularnych kształtów, dopasowywania do wzorca i inne narzędzia dla środowisk 3D.
Obecnie stosowana jest chmura punktów 3D. W jej przypadku nie ma potrzeby odzwierciedlania tekstury i koloru części w ujednoliconej przestrzeni roboczej. Praca ze wszystkimi rodzajami danych musi być intuicyjna i łatwa.
Sterowanie wizyjne 3D, modelowanie
Systemy sterowania robotami w 3D dostępne są od 10 lat, ale nadal zbyt trudne jest ich wykorzystanie. Według Maslara powinien istnieć pewien standard łączący systemy wizji maszynowej i sterowniki robotów, pracujący w konfiguracji „włącz i pracuj”.
Przy sterowaniu robotami w 3D systemy wizyjne powinny być programowane offline. Programując aplikacje dla systemów wizyjnych, powinno się używać narzędzi wirtualnych. Zdaniem Maslara modele bryłowe części powinny mieć naniesioną teksturę i dostarczać informacji o tym, jak ma wyglądać obraz maszyny. Niestety, obecnie tak nie jest.
Przed przystąpieniem do jakiegokolwiek montażu systemy wizyjne powinny być programowane offline. Maslar wspomniał też, że przez symulację zrobotyzowane stanowiska robocze (ang. robotic work cells) powinny uzyskać korzyści również w zakresie szybszego powrotu do pracy po wystąpieniu usterek, dzięki graficznemu wyświetlaniu błędów z podpowiedziami.
– W dzisiejszych czasach komunikacja z robotami odbywa się w większości wypadków przez wprowadzane na panelu nauczania polecenia tekstowe. Powinniśmy korzystać z zalet narzędzi wirtualnych, wprowadzając symulację do hali produkcyjnej. Usuwanie błędów mogłoby się odbywać wirtualnie, aby obniżyć ryzyko związane z ruchem robotów – dodał Maslar.
Autor: Mark T. Hoske jest Content Managerem w „Control Engineering”