To znaczący krok dla robotyki kosmicznej rozwijanej w Polsce (#7)
Dr inż. Bartosz Ptak (Politechnika Poznańska) opowiada o projekcie PUT-ISS i o tym jak badania akademickie mogą przełożyć się na realne zastosowanie w kosmosie.
Projekt PUT-ISS to przykład, jak badania akademickie mogą przełożyć się na realne zastosowanie w kosmosie. Zespół z Politechniki Poznańskiej, we współpracy z firmą KP Labs, opracował system widzenia maszynowego, który działał w warunkach mikrograwitacji i ograniczonych zasobów sprzętowych. O tym, jak przygotowuje się oprogramowanie do pracy w kosmosie, opowiada dr inż. Bartosz Ptak.
Michał Podlewski, Kamil Pawlik: Co sprawiło, że zainteresowałeś się inżynierią, a w szczególności robotyką i aplikacjami kosmicznymi? Co było tym pierwszym impulsem, który skierował Ciebie na inżynierię, i kiedy pojawiła się pewność, że to właśnie robotyka jest tym, czym chce się Pan zajmować na poważnie?
Dr inż. Bartosz Ptak: Już podczas studiów inżynierskich zacząłem rozwijać się w kierunku uczenia maszynowego i wizji komputerowej. Gdy na Politechnice Poznańskiej pojawiła się nowa specjalizacja – Roboty i Systemy Autonomiczne, dzięki zachętom promotora, postanowiłem porzucić informatykę na rzecz pracy z prawdziwym sprzętem i sensorami. Dodatkowego przyspieszenia nadało mi dołączenie do koła naukowego, gdzie razem z zespołem stworzyliśmy algorytm wykrywania śmieci przez drona1 i mapowania ich lokalizacji dla robota sprzątającego. Dalsza współpraca z moim promotorem pracy magisterskiej doprowadziła mnie do doktoratu, podczas którego zajmowałem się lokalizacją i śledzeniem bardzo małych obiektów na nagraniach z drona. Z czasem jednak moje zainteresowanie tą tematyką zaczęło słabnąć – szczególnie w połowie doktoratu, gdy w wyniku wojny w Ukrainie zmienił się charakter użycia dronów i oczekiwania wobec tej technologii. Dlatego z ogromnym entuzjazmem przyjąłem wiadomość o powstaniu na Politechnice Poznańskiej Ośrodka Testowania Robotów Kosmicznych. W połączeniu ze zwiększonym zaangażowaniem Polski w ESA otworzyło to zupełnie nowe możliwości. Ostatnie lata doktoratu były więc dla mnie okresem pewnego rozdarcia – z jednej strony kończyłem badania i pisałem rozprawę o dronach, z drugiej już angażowałem się w pierwszy projekt ESA z zakresu robotyki kosmicznej w Poznaniu2.
Pracujesz nad projektami naziemnymi, rolniczymi i kosmicznymi. To skrajnie różne środowiska. Co jest wspólnym mianownikiem dla technik wizji komputerowej w tych zastosowaniach? Jak adaptuje się algorytmy, by działały równie dobrze na polu uprawnym, co w przestrzeni kosmicznej?
Każdy z algorytmów tworzonych w tych projektach miał inne zadanie i był projektowany pod konkretne wyzwania inżynieryjne. To, co je łączyło, to ograniczenia zasobów – wszystkie działały na pokładzie robota, bez dostępu do bardzo wydajnych komputerów czy przetwarzania w chmurze. Na platformach robotycznych ograniczenia w poborze energii, wadze, gabarytach czy transmisji danych sprawiają, że używa się urządzeń o wysokim stosunku wydajności do zużycia mocy, działających „na krawędzi” systemu – czyli bezpośrednio na robocie. Właśnie dlatego pracując nad algorytmami uczenia maszynowego w robotyce, często mówimy o Edge AI. W praktyce oznacza to, że tworząc algorytm wizyjny, nie dążymy do osiągnięcia absolutnie najlepszych wyników „za wszelką cenę”. Celem jest opracowanie rozwiązania, które spełnia wymagania projektowe i jednocześnie jest wystarczająco lekkie i szybkie, by działało na urządzeniach o ograniczonych możliwościach. I to właśnie te wyzwania techniczne, balansowanie między wydajnością a ograniczeniami sprzętowymi, są rdzeniem mojej codziennej pracy w tak różnych środowiskach, od pola uprawnego po przestrzeń kosmiczną.
Twoim głównym obszarem badawczym w ramach doktoratu jest „detekcja małych obiektów z bezzałogowych statków powietrznych”. Jak byś przedstawił swoje główne obszary działania naszym czytelnikom?
Mój doktorat koncentruje się na rozwijaniu algorytmów wizyjnych, ale mam ten przywilej, że są one osadzone w konkretnym zastosowaniu. Obrazowo, stworzyłem narzędzie, które na podstawie materiałów wideo z drona i danych z jego sensorów pozwala określić, ile osób znajduje się w tłumie – na przykład podczas imprez masowych czy manifestacji.
To rozwiązanie jest bardzo przydatne nie tylko do analiz statystycznych czy sporów politycznych, ale przede wszystkim dla organizatorów, policji i służb porządkowych dbających o bezpieczeństwo wydarzeń. Analiza takich nagrań jest trudna: ludzie stoją blisko siebie, poruszają się, a dodatkowo sam dron jest w ruchu, aby uchwycić całość tłumu. Do tego obrazy mają bardzo dużą rozdzielczość, a pojedyncza osoba zajmuje na nich zaledwie kilka pikseli. W moim podejściu, w przeciwieństwie do tradycyjnych metod detekcji opartych na prostokątach, zaproponowałem algorytmy do wykrywania i śledzenia osób oparte na punktach. W tym modelu nie liczy się rozmiar człowieka w obrazie – każda osoba staje się po prostu „kropką”, najczęściej umieszczoną na wysokości głowy. Rozwiązanie to osiąga najlepsze wyniki (ang. state of the art) dla dwóch analizowanych zbiorów danych, osiągając 23% i 16% błędu w liczeniu całości tłumu.
Dlaczego akurat detekcja małych obiektów? Jak wygląda różnica pomiędzy wykrywaniem obiektów w warunkach ziemskich (np. na polu uprawnym) a w środowisku kosmicznym (np. na powierzchni Księżyca)? Czy to zupełnie inne wyzwania techniczne, czy raczej wariacje tego samego problemu?
Detekcja małych obiektów to wbrew pozorom jedno z najtrudniejszych, ale też najciekawszych wyzwań w wizji komputerowej. Im mniejszy obiekt, tym mniej informacji o nim znajduje się w obrazie – kilka pikseli może decydować o tym, czy algorytm „zauważy” go poprawnie, czy całkowicie go zgubi. To sprawia, że trzeba bardzo precyzyjnie dopasować sposób przetwarzania danych i reprezentacji obiektów, często łącząc informacje z różnych źródeł, np. z sensorów czy ruchu kamery. Jeśli chodzi o różnicę między Ziemią a środowiskiem kosmicznym – to z jednej strony podobne problemy, a z drugiej zupełnie inne warunki brzegowe. Na Ziemi, np. w rolnictwie, pracujemy z obrazami pełnymi detali, w zmiennym oświetleniu, z dużą ilością kolorów i tekstur. Wyzwanie polega często na rozróżnieniu wielu podobnych obiektów (np. liści, roślin, owoców). W środowisku kosmicznym jest odwrotnie – obraz jest prostszy wizualnie, ale ekstremalny pod względem warunków: duże kontrasty, brak atmosfery, ostre cienie, refleksy światła słonecznego, a do tego ograniczona możliwość kalibracji sensorów i ogromna różnica w skali.
Jakie metody klasyczne okazują się nadal użyteczne w erze głębokiego uczenia? Czy w kontekście robotyki kosmicznej często wracacie do „prostych” algorytmów, choćby ze względu na ograniczenia sprzętowe?
Oczywiście, klasyczne metody wizyjne wciąż są niezwykle użyteczne – trzeba je tylko stosować tam, gdzie mamy kontrolowane warunki. Przykładowo, w środowisku fabrycznym, gdzie możemy dobrać odpowiednie ułożenie kamery, jej parametry i oświetlenie, wiele problemów nadal da się rozwiązać klasycznymi algorytmami, które będą nie tylko wydajniejsze, ale też tańsze we wdrożeniu. Głębokie sieci neuronowe zrewolucjonizowały wizję komputerową, bo zredukowały potrzebę pełnej kontroli nad warunkami – pozwalają tworzyć algorytmy, które działają w bardzo różnych środowiskach. Jednak ich wykorzystanie wiąże się z koniecznością użycia wydajniejszych urządzeń, często z dedykowanymi akceleratorami lub z przetwarzaniem w chmurze. W robotyce sieci neuronowe stały się standardem w dostarczaniu „inteligencji”, ale to nie znaczy, że klasyczne metody trafiły do szafy. Wręcz przeciwnie – bardzo często łączy się algorytmy klasyczne z modelami opartymi na sieciach neuronowych, żeby uzyskać równowagę między jakością działania a szybkością, co ma kluczowe znaczenie przy pracy w czasie rzeczywistym na urządzeniach o ograniczonych zasobach. Ostatnio w środowisku robotycznym dużo mówi się o tzw. visual multimodal models – to potencjalny kolejny przełom w percepcji maszynowej. Wierzę, że w dłuższej perspektywie naprawdę zmienią sposób, w jaki roboty „widzą” i rozumieją świat, ale dziś ich zastosowanie jest wciąż ograniczone do badań i środowisk dysponujących dużą mocą obliczeniową.
PUT-ISS to chyba najbardziej medialna część Twojej pracy badawczej. Jak w ogóle doszło do tego, że studenci i naukowcy z Politechniki Poznańskiej znaleźli się w projekcie, którego efekty poleciały aż na Międzynarodową Stację Kosmiczną? Czym w ogóle jest projekt PUT-ISS i jaki jest jego główny cel w kontekście przyszłych misji na Księżyc czy Marsa?
Po zakończeniu pierwszego projektu z zakresu robotyki kosmicznej finansowanego z projektów rozwojowych ESA (o którym wspominałem wcześniej) kontynuowaliśmy współpracę z firmą KP Labs. Chcieliśmy rozwijać nasze algorytmy robotyczne na ich jednostkach obliczeniowych klasy space-proven, czyli przystosowanych do pracy w warunkach kosmicznych. Okazja do realizacji tego planu pojawiła się, gdy KP Labs zostało wybrane do przeprowadzenia jednego z eksperymentów w ramach misji IGNIS, wysłanej na Międzynarodową Stację Kosmiczną. Wyprodukowana przez nich wydajna jednostka obliczeniowa, nazwana LeopardISS, miała zostać przetestowana w warunkach pracy na ISS. Wtedy właśnie nasz zespół z Politechniki Poznańskiej rozpoczął prace nad dedykowanym systemem robotycznym, który później otrzymał roboczą nazwę PUT-ISS. Celem systemu było stworzenie mapy nieznanego otoczenia na podstawie obrazu z dwóch kamer ułożonych w konfiguracji stereowizyjnej – działających podobnie jak ludzkie oczy. Takie systemy w przyszłości staną się „zmysłami” autonomicznych łazików, które będą musiały poruszać się po trudnym, nieznanym terenie bez stałego kontaktu z Ziemią. Demonstracja działania PUT-ISS na orbicie to dowód, że algorytmy opracowane na Ziemi mogą faktycznie pracować w środowisku kosmicznym. To ważny krok w kierunku w pełni autonomicznych misji eksploracyjnych na powierzchni Księżyca, Marsa i innych ciał niebieskich.
Projekt PUT-ISS był realizowany w ścisłej współpracy z firmą KP Labs. Jak wyglądała ta współpraca między środowiskiem akademickim a prywatnym sektorem kosmicznym? Testowaliście swoje algorytmy na komputerze KP Labs, który miał „bardzo duże ograniczenia”. Na czym one polegały i jak wpłynęły na finalny kształt oprogramowania?
Zespół akademicki z Politechniki Poznańskiej odpowiadał za opracowanie i rozwój samych algorytmów, natomiast KP Labs zapewniało dostęp do sprzętu, środowiska testowego i wymagań inżynieryjnych, które muszą być spełnione, aby system mógł działać w kosmosie. Dzięki temu mogliśmy dostosować nasze rozwiązania nie tylko do warunków laboratoryjnych, ale do rzeczywistych ograniczeń platform kosmicznych. I właśnie te ograniczenia stanowiły największe wyzwanie. W odróżnieniu od komputerów ziemskich, jednostki przeznaczone do pracy w przestrzeni kosmicznej muszą być odporne na promieniowanie, wibracje i ekstremalne temperatury, co oznacza, że ich moc obliczeniowa jest znacznie mniejsza.
Projekt realizowany był w dużym zespole. Jak wyglądała praca łącząca doświadczonych naukowców ze studentami? Co dla młodego inżyniera oznacza możliwość pracy przy eksperymencie, który fizycznie znalazł się na orbicie?
Wielu z nas ma bogate doświadczenie komercyjne, więc metodologie stosowane do zarządzania projektami i zespołami w firmach nie są nam obce. Przeniesienie ich do środowiska akademickiego jest naturalnym wyzwaniem, ale pozwala zmniejszyć dystans między ekspertami a studentami, przynosząc korzyści zarówno dla młodych inżynierów, jak i dla całego projektu.
Dla młodego inżyniera możliwość pracy przy projekcie, którego efekty trafiły na Międzynarodową Stację Kosmiczną, to doświadczenie absolutnie wyjątkowe. To nie tylko wzbogacenie swojego CV, ale przede wszystkim realne zrozumienie całego procesu tworzenia technologii kosmicznej – od koncepcji, przez testy, aż po wdrożenie w przestrzeni zgodnie z wymaganiami ESA. PUT-ISS stał się nie tylko eksperymentem naukowym, ale też znakomitym programem edukacyjnym, pokazującym, jak w praktyce łączyć badania akademickie z przemysłem i kształcić nowe pokolenie inżynierów gotowych do pracy w sektorze kosmicznym.
Eksperyment na ISS został zakończony. Jakie są jego najważniejsze wyniki i kluczowe wnioski? Czy testy ujawniły jakieś istotne rozbieżności w stosunku do symulacji i testów naziemnych?
System PUT-ISS z powodzeniem uruchomił wszystkie moduły: estymację trajektorii, generowanie chmur punktów oraz mapowanie 3D terenu. Algorytmy działały stabilnie na ograniczonym sprzęcie kosmicznym, co potwierdziło ich zdolność do pracy w warunkach mikrograwitacji oraz przy ograniczonych zasobach obliczeniowych. Testy obejmowały wiele scenariuszy ewaluacyjnych. Pomimo ogólnie wysokiego poziomu powtarzalności i dokładności, w kilku przypadkach odnotowano drobne odchylenia w mierzonych metrykach. Wymaga to dalszej analizy, aby zrozumieć ich przyczyny i zapewnić eliminację podobnych nieścisłości w przyszłych projektach.
Czy planowane są kolejne eksperymenty w przestrzeni kosmicznej – np. kontynuacja PUT-ISS albo udział w nowych misjach ESA lub NASA?
Nasz projekt, chociaż mało widowiskowy, stanowi znaczący krok dla robotyki kosmicznej rozwijanej w Polsce. Udowodniliśmy, że potrafimy spełnić rygorystyczne wymagania ESA i przejść certyfikację do lotu w kosmos, dzięki temu staliśmy się widoczni w Europie jako potencjalny podwykonawca oprogramowania dla przyszłych łazików kosmicznych. Choć nie mogę zdradzić żadnych szczegółów kolejnych projektów, mogę zapewnić, że nie stoimy w miejscu i stale dążymy do realizacji nowych, ambitnych wyzwań.
Jak dokładnie działa proces estymacji trajektorii w algorytmach stereowizji? Jak to się dzieje, że umożliwia on autonomiczne nawigowanie łazika w środowisku księżycowym?
Proces estymacji trajektorii w algorytmach stereowizji polega na tym, że robot – wyposażony w kamerę stereowizyjną, czyli parę kamer zamontowanych równolegle w pewnej odległości od siebie – analizuje, jak zmienia się jego otoczenie pomiędzy kolejnymi odczytami obrazu. Na początku, porównując różnice pomiędzy obrazami zarejestrowanymi przez lewą i prawą kamerę, algorytm tworzy tzw. mapę głębi, czyli odwzorowanie odległości od sensora do poszczególnych punktów w przestrzeni. Następnie interpretowane są zmiany w scenie między kolejnymi klatkami: na podstawie charakterystycznych cech obrazu system określa, w którą stronę, o ile metrów i pod jakim kątem łazik się przemieścił. To właśnie wizualna odometria – technika pozwalająca wyznaczać ruch robota jedynie na podstawie danych z kamer. W połączeniu z generowaniem chmury punktów opisującej otoczenie w danej chwili, system może na bieżąco aktualizować swoją pozycję i budować trójwymiarową mapę terenu wokół siebie. Dzięki temu łazik potrafi samodzielnie planować trasę, unikać przeszkód i realizować autonomiczne misje w środowisku, które stopniowo poznaje.
Jakie największe wyzwania techniczne napotkaliście przy optymalizacji algorytmów widzenia maszynowego, aby działały na ograniczonych zasobach komputera kosmicznego? Co okazało się trudniejsze, niż się spodziewaliście?
Algorytmy widzenia maszynowego, zwłaszcza te wykorzystujące stereowizję i analizę 3D, muszą przetwarzać ogromne ilości danych wizualnych w czasie rzeczywistym. To duże wyzwanie, gdy dysponuje się ograniczoną mocą obliczeniową komputera pokładowego. Konieczne było więc dogłębne zoptymalizowanie kodu – zmniejszenie złożoności obliczeń, przepisanie części algorytmów tak, aby lepiej wykorzystywały równoległe rdzenie procesora oraz ograniczone dostępne zasoby pamięci operacyjnej. Najtrudniejsze okazało się nie samo opracowanie algorytmów, lecz sprawienie, by działały niezawodnie i wydajnie w środowisku, w którym każda sekunda obliczeń i każdy megabajt pamięci mają znaczenie. Dodatkowym wyzwaniem było to, że w kosmosie nie da się po prostu „zaktualizować oprogramowania”, więc cały system musiał być maksymalnie stabilny już od pierwszego uruchomienia.
Czym wasz system różni się od alternatywnych rozwiązań opracowywanych przez NASA, ESA czy prywatne firmy kosmiczne?
Nie staramy się konkurować z dużymi agencjami kosmicznymi pod względem skali czy przełomowości technologicznej. Naszym celem jest zdobywanie praktycznego know-how i przechodzenie przez wszystkie etapy niezbędne do tego, by nasza technologia widzenia maszynowego mogła w przyszłości rzeczywiście trafić w kosmos. Nie opracowujemy nowych teorii widzenia maszynowego – zamiast tego pokazujemy, że istniejące rozwiązania można skutecznie zoptymalizować i uruchomić na sprzęcie klasy space-proven, z zachowaniem stabilności, bezpieczeństwa i zgodności ze standardami ESA. System PUT-ISS stanowi dla nas kamień milowy na drodze do pełnej dojrzałości technologicznej – to etap, który pozwala zrobić kolejny, bardzo konkretny krok w kierunku przyszłych misji księżycowych.
Które konkretne scenariusze misji księżycowych lub marsjańskich będą mogły skorzystać z tej technologii? Jak autonomiczne mapowanie może zmienić sposób eksploracji planet?
Technologia rozwijana w projekcie PUT-ISS otwiera nowe możliwości dla przyszłych misji kosmicznych, zarówno na Księżycu, jak i na Marsie. Opracowywane algorytmy stereowizji i trójwymiarowego mapowania pozwolą robotom samodzielnie „widzieć” i rozumieć swoje otoczenie w czasie rzeczywistym. Dzięki temu łazik może samodzielnie oceniać ukształtowanie terenu, wykrywać przeszkody i wybierać najbezpieczniejszą trasę przejazdu. Autonomiczne mapowanie zmienia też sam sposób myślenia o eksploracji planet. Zamiast powolnych, ostrożnych kroków sterowanych z Ziemi, możliwe stanie się wysyłanie robotów, które potrafią samodzielnie podejmować decyzje, analizować ryzyko i dostosowywać swoje działania do sytuacji. To nie tylko przyspieszy badania, ale też pozwoli prowadzić je w miejscach dotąd niedostępnych – w głębokich kraterach, jaskiniach lawowych czy na obszarach o trudnym oświetleniu, gdzie zasięg komunikacji jest ograniczony.
Jaka jest Twoja osobista wizja przyszłości robotyki i eksploracji kosmosu? Na jaki przełom technologiczny czekasz najbardziej?
Bliska przyszłość robotyki kosmicznej to przede wszystkim misje badawcze, w których coraz bardziej zaawansowane łaziki będą mogły szybciej i dokładniej docierać do trudno dostępnych miejsc i tam przeprowadzać analizy. W dalszej perspektywie zaczniemy mówić już nie tyle o łazikach, co o robotach księżycowych czy marsjańskich, które staną się narzędziami do budowy infrastruktury w trudnych warunkach. Początkowo będą one prawdopodobnie asystowane przez ludzi, gdzie jeden operator kontroluje zdalnie wiele maszyn. Z czasem roboty będą wykonywać powierzone zadania w pełni autonomicznie, a człowiek będzie potrzebny głównie do decyzji w sytuacjach awaryjnych.
Jeśli chodzi o Księżyc, choć jego eksploracja ma ogromny potencjał przełomowy dla gospodarki i życia codziennego, najbardziej czekam na tanie, wydajne i trwałe źródło energii, które przestanie ograniczać możliwości robotów i pozwoli na długotrwałą pracę w warunkach kosmicznych.
Gdybyś miał doradzić młodym inżynierom czy studentom, którzy chcą wejść w świat badań kosmicznych – jakie kompetencje są dziś najbardziej pożądane?
Od początku studiów wszyscy powtarzali mi, że nie jest istotny konkretny język programowania czy narzędzie – ważniejsze jest zrozumienie idei programowania, logiczne myślenie i umiejętność adaptacji do zmian. Od siebie dodałbym, że w dzisiejszych czasach, gdy wiedza jest łatwo dostępna w Internecie, a dzięki LLM-om (GPT, Gemini i innym) możemy automatyzować wiele zadań i szybciej zgłębiać tematy, kluczowe stają się umiejętność krytycznego myślenia, łączenia różnych elementów projektów oraz zdolności manualne. Dodatkowo, każdemu studentowi polecam dołączenie do koła naukowego i stworzenie czegoś w zespole – nie muszą to być rakiety czy łaziki kosmiczne. Studia to prawdopodobnie jedyny czas, kiedy można naprawdę eksperymentować, realizować fajne projekty, pozwolić sobie na popełnianie błędów i budować doświadczenie praktyczne.
Bazując na Twoim doświadczeniu, jakie kluczowe obszary lub technologie w sektorze kosmicznym powinna rozwijać Polska, aby wzmacniać swoją pozycję na arenie międzynarodowej? A może widzisz jakąś niszę, w którą powinniśmy inwestować jako państwo (w szeroko pojętej AI i robotyce)?
Myślę, że warto tu rozróżnić dwa typy obszarów: te krytyczne dla państwa i te o charakterze komercyjnym. W pierwszym przypadku powinniśmy skupić się na rozwijaniu własnych rozwiązań programistycznych, komunikacyjnych i sprzętowych. Dzięki temu Polska stanie się bardziej niezależna technologicznie, co przekłada się bezpośrednio na bezpieczeństwo państwa. W drugim obszarze warto celować w nisze, które nie są jeszcze zdominowane przez dużych graczy. Dobrym przykładem jest robotyka kosmiczna – zarówno in-orbit servicing, jak i eksploracja Księżyca. Nie chodzi przy tym o to, żeby od razu budować i wysyłać łazika na Księżyc (chociaż oczywiście chętnie bym w tym uczestniczył), lecz o stworzenie ekosystemu firm produkujących konkretne podzespoły i rozwiązania hardware’owe, które staną się częścią większego systemu kosmicznego. To podejście pozwala jednocześnie rozwijać kompetencje krajowe i budować pozycję Polski na rynku międzynarodowym.
***
Dr inż. Bartosz Ptak – badacz robotyki i systemów autonomicznych związany z Politechniką Poznańską (Instytut Robotyki i Inteligencji Maszynowej). Absolwent informatyki oraz robotyki i systemów autonomicznych. Specjalizuje się w algorytmach widzenia komputerowego i Edge AI dla robotów mobilnych, w szczególności przeznaczonych do pracy w warunkach kosmicznych. Autor rozprawy doktorskiej poświęconej detekcji małych obiektów z dronów. Współtwórca projektu PUT-ISS – pierwszego polskiego systemu wizyjnego przetestowanego na pokładzie Międzynarodowej Stacji Kosmicznej.
Linki:
Drone rubbish detection intelligent technology
https://uavvaste.github.io/
Cognition: distributed data processing system for lunar activities
https://putvision.github.io/project/2023/02/08/lunar-rover-ros-fpga.html




