This publication proposes a visual localization method using images from a simulated camera and a georeferenced map. The UAV model and flight simulation were made in the MATLAB Simulink package, which sent UAV orientation data to the described program. The visualization of the camera image was performed in real time using the FlightGear software, the image of which was also captured by the NW program. This method is performed by two processes in two modules: Global Positioning Component and Motion Positioning Component. The first one compares the image from the simulated camera with the orthophotomap. The second determines the position based on the assessment of the displacement of characteristic points in the image in relation to the last known location. The result of the operation of both modules is illustrated in the graphic window of the NW application, which allows for a visual comparison of the obtained results. With the global method of location, additional camera orientation correction is required to determine the position in 2D space. For this purpose, data on the current camera orientation expressed in quaternions were used. This allowed for the introduction of a position correction, which significantly improved the accuracy of the result obtained in the GPC module despite significant UAV tilts during the simulated flight.
Głównym celem artykułu jest przedstawienie systemu dla autonomicznego samochodu budowanego w celach testowych. Szczególnie skupiono się na opisaniu układu czujników, fuzji sensorycznej oraz użytym oprogramowaniu. Przedstawiono sposób rozmieszczenia czujników oraz rozdział zasilania. Zaprezentowano również sposób wyznaczania trasy oraz kolejne kroki realizacji samodzielnej jazdy. Wskazano zalety dedykowanego oprogramowania PolySync firmy Harbrick dla autonomicznych pojazdów. SŁOWA KLUCZOWE: układ sensoryczny, bez kierowcy, autonomicznyThe main purpose of the article is present a system for an autonomous vehicle constructed for testing. Especially focused on describing the sensors fusion and software used. Shows the the arrangement sensors and power supply section. Also presented method for calculating the route and next steps for execution driving without a driver. Article also shows the advantages of dedicated software PolySync from Harbrick for autonomous cars. KEYWORDS: sensors, driverless, autonomousAnaliza dostępnych rozwiązań systemów autonomicznych pojazdów pozwala zauważyć kierunek rozwoju współczesnej motoryzacji. Producenci instalują systemy do identyfikacji otoczenia, przetwarzania danych oraz układy wykonawcze, które coraz bardziej zastępują kierowcę. Celem niniejszego artykułu będzie opisanie układu sensorycznego oraz systemu akwizycji danych dla autonomicznego samochodu. Pojęto wiele starań, aby układ sensoryczny był jak najbardziej efektywny i elastyczny przy ograniczonym budżecie. Zadbano o możliwość przyszłościowej rozbudowy części sprzętowej oraz oprogramowania. Układ sensoryczny w pojeździe autonomicznymRozmieszczenie elementów układu sensorycznego determinuje parametry wejściowe dla całego procesu sterowania. Zastosowane sensory można pogrupować na czujniki optyczne oraz położenia. Ze względu na pełnioną funkcję, wszystkie urządzenia z pierwszej grupy zamontowane będą na przedniej szybie pojazdu (rys. 1, kolor niebieski). Skaner 3D firmy Velodyne będzie znajdował się nad szybą, aby możliwa była obserwacja otoczenia samochodu. Odpowiedni system regulacji umożliwi korekcję położenia kątowego. Na środku przedniej szyby samochodu będzie przyklejony moduł MobilEye, służący do identyfikowania obiektów i potencjalnych zagrożeń. Drugą część czujników stanowią anteny GPS, które zostaną rozmieszczone w tylnej części pojazdu (rys. 1, kolor zielony). Ich zadaniem jest przekazanie informacji o aktualnym położeniu pojazdu oraz synchronizacja czasowa czujników względem GPS. Ostatnią grupą układu sensorycznego są interfejsy pośredniczące (rys. 1, kolor pomarańczowy), które mogą być zamontowane pod karoserią samochodu.Zadbano o możliwość przyszłościowej rozbudowy części sprzętowej oraz oprogramowania. Układ sensoryczny w pojeździe autonomicznymRozmieszczenie elementów układu sensorycznego determinuje parametry wejściowe dla całego procesu sterowania. Zastosowane sensory można pogrupować na czujniki optyczne oraz położenia. Ze względu na pełnioną funkcję, wszystkie urządzenia z pierwszej grupy zamontowane będą ...
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
customersupport@researchsolutions.com
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Copyright © 2025 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.